項目一覧
クラスターのデプロイ
このトピックでは、VM に Routing Director 展開クラスターを展開する手順を説明します。
ノードVMを作成して準備したら、VMでクラスタパラメータを設定し、Routing Director導入クラスタを展開します。クラスターを構成してデプロイする手順は、クラスターをデプロイするハイパーバイザーに関係なく同じです。
以下のステップを実行して、Routing Director導入クラスターを構成し、導入します。
ノード VM を構成する
すべてのノード VM が作成されたら、次の手順を実行して VM を構成します。
最初の VM のノード VM Web コンソールに接続します。自動的にrootとしてログインします。
すぐにパスワードを変更するように求められます。新しいパスワードを入力し、再度入力します。VM から自動的にログアウトされます。
手記:すべての VM に同じパスワードを入力することをお勧めします。VM に異なるパスワードを構成する場合は、クラスターのデプロイ時にクラスター ノードの SSH キーを生成する ように要求されたときに、異なるパスワードを正しく入力します。
プロンプトが表示されたら、新しく設定したパスワードでrootユーザーとして再度ログインします。
プロンプトが表示されたら、次の情報を構成します。
表 1: VM 構成ウィザード プロンプト
アクション
ホスト名を設定しますか?(y/n)
y と入力してホスト名を構成します。
ホスト名を指定してください
VM の識別ホスト名を入力します。たとえば、Primary1 です。ホスト名は64文字未満で、英数字と一部の特殊文字を使用できます。
ホスト名を入力しない場合、の形式のデフォルトのホスト名
controller-<VM-IP-address-4th-octet> is assigned.手記:1 つのノードからクラスターを展開し、クラスター構成プロセス中に他のノードの IP アドレスを入力するため、ロールは自動的に割り当てられます。構成する最初の 3 つのノードはプライマリ ノードとワーカー ノードで、最後のノードはワーカー専用ノードです。
ホスト名(およびホスト名がノードの役割と一致するかどうか)は、クラスタの操作に影響を与えません。ただし、管理上の理由から、ノードに名前を付ける方法と、クラスターの作成手順でアドレスを入力する順序に注意を払うことをお勧めします。
クラスタのインストール後にホスト名を変更することはサポートしていません。
静的 IP (推奨) を設定しますか?(y/n)
「y」と入力して、VM の IP アドレスを構成します。
IPアドレスはCIDR表記で指定してください
IP アドレスを CIDR 表記で入力します。たとえば、10.1.2.3/24 です。
ノード VM は、同じサブネット内にあっても、異なるサブネット内にあってもかまいません。
手記:「10.1.2.3/24」ではなく「10.1.2.3」と入力すると、「無効な IP アドレス」というエラーメッセージが表示されます。
ゲートウェイIPを指定してください
ゲートウェイの IP アドレスを入力します。
ノードVMのネットワークに対応するゲートウェイIPアドレスを必ず入力してください。
プライマリDNS IPを指定してください
プライマリ DNS IP アドレスを入力します。
セカンダリDNS IPを指定してください
セカンダリ DNS の IP アドレスを入力します。
IPv6 を設定しますか?(y/n)
yを入力して、IPv6 アドレスを設定します。IPv6 アドレスを設定しない場合は、
nを入力し、ステップ 5 に進みます。IPv6アドレスはCIDR表記で指定してください
IPv6 アドレスを CIDR 表記で入力します。たとえば、2001:db8:1:2::3/64 です。
ノード VM は、同じサブネット内にあっても、異なるサブネット内にあってもかまいません。
手記:「2001:db8:1:2::3/64」ではなく「2001:db8:1:2::3」と入力すると、「無効な IP アドレス」というエラーメッセージが表示されます。
ゲートウェイ IPv6 を指定してください
ゲートウェイの IPv6 アドレスを入力します。
ノードVMのネットワークに対応するゲートウェイIPアドレスを必ず入力してください。
プライマリDNS IPv6を指定してください
プライマリ DNS IPv6 アドレスを入力します。
セカンダリDNS IPv6を指定してください
セカンダリ DNS IPv6 アドレスを入力します。
続行するかどうかを確認するプロンプトが表示されたら、表示された情報を確認し、 y と入力して Enter キーを押します。
デプロイメント・シェルにログインしています。
(オプション)ノード間の接続を確認します。すべてのノード VM に再度ログインします。ログアウトしている場合は、以前に設定した パスワードでrootとして再度ログインします。デプロイメント・シェル操作モードになります。
exitと入力して、ノードの Linux ルート シェルに入ります。ping static-ipv4-addressコマンドを使用して各ノードから他の 3 つのノードに ping を実行し、ノードが相互に接続できることを確認します。(オプション)クラスタの展開に進む前に、NTPサーバが到達可能であることを確認します。いずれかのクラスタ ノードで、「
start shell」と入力します。#プロンプトで、ping ntp-servers-name-or-addressコマンドを使用してサーバーに ping を実行します。ping が失敗した場合は、別の NTP サーバを使用します。
ノードの準備手順が完了し、クラスターをデプロイする準備が整いました。
クラスターをデプロイする
展開シェルCLIを使用してルーティング・ディレクター・デプロイメント・クラスターを構成およびデプロイするには、以下のステップを実行します。
最初のノード VM (Primary1) に戻ります。ログアウトしている場合は、以前に設定した パスワードでrootとして再度ログインします。デプロイメント・シェル操作モードになります。
********************************************************************* WELCOME TO Routing Director SHELL! You will now be able to execute Routing Director CLI commands! ********************************************************************* root@eop>クラスターを構成するには、展開シェルで構成モードに入ります。
root@eop> configure Entering configuration mode [edit]
次のクラスタパラメータを設定します。
root@eop# set deployment cluster nodes kubernetes 1 address node1-IP [edit] root@eop# set deployment cluster nodes kubernetes 2 address node2-IP [edit] root@eop# set deployment cluster nodes kubernetes 3 address node3-IP [edit] root@eop# set deployment cluster nodes kubernetes 4 address node4-IP [edit] root@eop# set deployment cluster ntp ntp-servers pool.ntp.org [edit] root@eop# set deployment cluster common-services ingress ingress-vip generic-ingress-vIP [edit] root@eop# set deployment cluster applications active-assurance test-agent-gateway-vip TAGW-vIP [edit] root@eop# set deployment cluster applications web-ui web-admin-user "user-admin@juniper.net" [edit] root@eop# set deployment cluster applications web-ui web-admin-password Userpasswd [edit]
どこ:
インデックス 1 から 4 を持つ
kubernetesノードの IP アドレスは、ノード VM で構成されている 静的 IP アドレス と一致する必要があります。インデックス 1、2、3 の Kubernetes ノードはプライマリ ノードとワーカー ノードであり、インデックス 4 のノードはワーカー専用ノードです。ノード IP アドレスは、同じサブネット上にあっても、異なるサブネット上にあってもかまいません。3 ノード クラスターを構成する場合は、インデックス 4 の Kubernetes ノードの構成をスキップします。ntp-serversは、同期先のNTPサーバです。web-admin-userweb-admin-passwordは、最初のユーザーが Web GUI へのログインに使用できる E メール・アドレスとパスワードです。ingress-vipは、汎用共通イングレスの VIP アドレスで、Web GUI への接続に使用されます。test-agent-gateway-vipは、Active Assurance Test Agent Gateway (TAGW) の VIP アドレスです。VIPアドレスは、デバイスがルーティングディレクターとの接続を確立するために必要なアウトバウンドSSH設定に追加されます。
手記:マルチサブネット クラスター インストールでは、VIP アドレスがクラスター ノードと同じサブネットに あってはなりません 。
PCE サーバの VIP アドレスを設定します。
root@eop# set deployment cluster applications pathfinder pce-server pce-server-vip PCE-vIP [edit]
どこ:
pce-server-vipは、PCE サーバがルーティング ディレクターとデバイス間のパス計算要素プロトコル(PCEP)セッションを確立するために使用する VIP アドレスです。VIP アドレスは、クラスタ ノードと同じサブネット上または別のサブネット上に配置できます。VIP アドレスは、他の VIP アドレスとは異なるサブネット上に配置できます。手記:PCE サーバーの VIP アドレスを構成して、ネットワーク トポロジーの更新をリアルタイムで表示します。
また、VIP アドレスは、クラスタの展開後いつでも設定できます。クラスタの展開後に PCE サーバの VIP アドレスを設定する方法については、「 PCE サーバの設定」を参照してください。
(オプション)ルーティング監視機能とVIPアドレスを設定して、BGP監視プロトコル(BMP)セッションとIPFIXデータ収集を確立します。
root@eop# set deployment cluster applications routingbot install-routingbot true [edit] root@eop# set deployment cluster applications routingbot routingbot-crpd-vip v4-crpd-address [edit] root@eop# set deployment cluster applications routingbot routingbot-ipfix-vip v4-ipfix-term-address [edit]
どこ:
install-routingbotルーティング監視機能を有効にします。routingbot-crpd-vipは、BMP セッションを確立するために外部ネットワーク デバイスが BMP ステーションの IP アドレスとして使用する VIP アドレスです。routingbot-ipfix-vipは、予測イベントを表示するための VIP アドレスです。警告:ルーティング監視機能を設定するために必要な最低限のリソースは、 ハードウェア要件に記載されています。ただし、本番環境にルーティング監視機能を設定するために必要なリソースの見積もりについては、ジュニパーパートナーまたはジュニパーの営業担当者にお問い合わせください。(オプション)AI/ML(AI:人工知能\ [AI]および機械学習[ML])機能を有効にして、デバイスの健全性に関連する重要業績評価指標(KPI)を自動的に監視し、デバイスのブラックホールを検出します。
root@eop# set deployment cluster applications aiops install-aiml true [edit] root@eop# set deployment cluster applications aiops enable-device-health true [edit] root@eop# set deployment cluster applications aiops enable-blackhole true [edit]
どこ:
install-aimlAI/ML機能を有効にします。デフォルトでは、これは無効になっています。enable-device-healthAI/ML機能を使用して、デバイスの健全性の監視を設定します。enable-blackholeAI/ML機能を使用して、デバイス上のブラックホール(パケットドロップ)を検出できるようにします。警告:デバイスの健全性の監視と、AI/MLを使用したブラックホールの検出は、このリリースのベータ機能です。AI/MLの設定に必要な最低限のリソースは、 ハードウェア要件に記載されています。ただし、本番環境の導入でAI/ML機能を設定するために必要なリソースの見積もりについては、ジュニパーパートナーまたはジュニパーの営業担当者にお問い合わせください。(オプション)IPv6アドレスを設定します。
root@eop# set deployment cluster kubernetes address-family cluster-ipv6-enabled true [edit] root@eop# set deployment cluster common-services ingress ingress-vip-ipv6 generic-ingress-IPv6 [edit] root@eop# set deployment cluster applications active-assurance test-agent-gateway-vip-ipv6 TAGW-IPv6 [edit] root@eop# set deployment cluster install prefer-ipv6 true [edit]
どこ:
cluster-ipv6-enabledクラスタで IPv6 アドレスの使用を有効にし、クラスタをデュアルスタックにします。ingress-vip-ipv6は、汎用共通イングレスの IPv6 VIP アドレスで、Web GUI への接続に使用されます。test-agent-gateway-vip-ipv6は、Active Assurance TAGW の IPv6 VIP アドレスです。prefer-ipv6IPv4 アドレスよりも IPv6 アドレスの優先度を設定します。trueに設定し、ホスト名が設定されていない場合、IPv6 VIP アドレスがアウトバウンド SSH 設定に追加されます。VIP アドレスは、クラスタ ノードと同じサブネット上に配置することも、別のサブネット上に配置することもできます。VIP アドレスは、互いに異なるサブネット上に配置することもできます。
(オプション)一般的なイングレスに複数の VIP アドレスを使用する場合は、NETCONF と gNMI に追加の VIP アドレスを設定します。
root@eop# set deployment cluster common-services ingress ingress-vip netconf-gnmi-vIP [edit] root@eop# set deployment cluster applications oc-term oc-term-host address netconf-gnmi-vIP [edit] root@eop# set deployment cluster applications gnmi-term gnmi-term-host address netconf-gnmi-vIP [edit]
どこ:
ingress-vipは、NETCONF および gNMI に使用する追加の VIP アドレスを設定するために使用されます。複数のingress-vipアドレスが定義されている場合、GUI への接続に使用する 1 つの VIP アドレスと、NETCONF および gNMI アクセスに使用する追加の VIP アドレスを設定できます。oc-term-hostは、NETCONF に使用する VIP アドレスです。gnmi-term-hostは、gNMI に使用する VIP アドレスです。NETCONF および gNMI 用に設定されたアドレスは、デバイスを採用するために使用されるアウトバウンド SSH 設定に追加されます。
(オプション)クラスタノードが異なるサブネットにある場合は、各クラスタノードで実行されているmetalLBエージェントを使用して、ToRルータとクラスタノード間のBGPピアリングを設定します。 この例では、図 2 に示すように、クラスタ ノード 1 と 2 は ToR1 からサービスを受け、クラスタ ノード 3 と 4 には ToR2 からサービスを受けています。
root@eop# set deployment cluster install enable-l3-vip true [edit] root@eop# set deployment cluster common-services metallb metallb-bgp-peer peer-ip ToR1-IP peer-asn ToR1-asn local-asn node-asn local-nodes node1_IP [edit] root@eop# set deployment cluster common-services metallb metallb-bgp-peer peer-ip ToR1-IP peer-asn ToR1-asn local-asn node-asn local-nodes node2_IP [edit] root@eop# set deployment cluster common-services metallb metallb-bgp-peer peer-ip ToR2-IP peer-asn ToR2-asn local-asn node-asn local-nodes [node3_IP node4_IP] [edit] root@eop# set deployment cluster common-services metallb metallb-bgp-peer-ipv6 peer-ip ToR1-IPv6 peer-asn ToR1-asn local-asn node-asn local-nodes [node1_IP node2_IP] [edit] root@eop# set deployment cluster common-services metallb metallb-bgp-peer-ipv6 peer-ip ToR2-IPv6 peer-asn ToR2-asn local-asn node-asn local-nodes [node3_IP node4_IP] [edit]
どこ:
enable-l3-vip異なるサブネット内のクラスタノードとVIPアドレスのL3 VIPアドレスを有効にします。metallb-bgp-peerとmetallb-bgp-peer-ipv6は、それぞれ ToR ルーターの IP アドレスと IPv6 アドレスです。peer-asnはToR AS番号です。local-asnはクラスタノードのAS番号です。AS番号は、すべてのクラスタノードで同じままです。local-nodesは、ステップ 3 で設定したクラスタ ノードの IP アドレスです。(オプション)汎用イングレスおよび Active Assurance TAGW のホスト名を設定する場合は、次のように設定します。
root@eop# set deployment cluster common-services ingress system-hostname ingress-vip-dns-hostname [edit] root@eop# set deployment cluster applications active-assurance test-agent-gateway-hostname nginx-ingress-controller-hostname [edit]
どこ:
system-hostnameは、一般的なイングレス仮想 IP (VIP) アドレスのホスト名です。test-agent-gateway-hostnameは、Active Assurance TAGW VIPアドレスのホスト名です。ホスト名を設定すると、ホスト名がVIPアドレスよりも優先され、アウトバウンドSSH設定に追加されます。ホスト名は、IPv4 または IPv6 のいずれか、またはその両方に解決できます。
(オプション)SMTP ベースのユーザー管理については、次の設定を構成します。
root@eop# set deployment cluster mail-server smtp-relayhost smtp.relayhost.com [edit] root@eop# set deployment cluster mail-server smtp-relayhost-username relayuser [edit] root@eop# set deployment cluster mail-server smtp-relayhost-password relaypassword [edit] root@eop# set deployment cluster mail-server smtp-allowed-sender-domains routingdirector.net [edit] root@eop# set deployment cluster mail-server smtp-sender-email no-reply@routingdirector.net [edit] root@eop# set deployment cluster mail-server smtp-sender-name Juniper Routing Director [edit] root@eop# set deployment cluster papi papi-local-user-management false [edit] root@eop# set deployment cluster mail-server smtp-enabled true [edit]
どこ:
smtp-allowed-sender-domainsは、ルーティング ディレクターがユーザーに電子メールを送信する電子メール ドメインです。smtp-relayhostは、メッセージを中継する SMTP サーバーの名前です。smtp-relayhost-username(オプション)は、SMTP(リレー)サーバーにアクセスするためのユーザー名です。smtp-relayhost-password(オプション)は、SMTP(リレー)サーバーのパスワードです。smtp-allowed-sender-domainsは、ルーティング ディレクターがユーザーに電子メールを送信する電子メール ドメインです。smtp-sender-emailは、電子メールの受信者に送信者の電子メール アドレスとして表示される電子メール アドレスです。smtp-sender-nameは、ルーティング・ディレクターからユーザーに送信される電子メールの送信者名として表示される名前です。papi-local-user-managementローカルユーザー管理を有効または無効にします。mail-server smtp-enabledSMTP を有効または無効にします。手記:この時点では、SMTPの設定はオプションです。SMTP設定は、クラスターがデプロイされた後にも構成できます。クラスタ導入後にSMTPを設定する方法については、次を参照してください: Paragon ShellでSMTP設定を構成する。
(オプション)カスタムユーザー証明書をインストールします。ユーザー証明書をインストールする前に、カスタム証明書ファイルと証明書キーファイルを、クラスターのデプロイ元のノードの Linux ルートシェルにコピーする必要があることに注意してください。ファイルを 「/root/epic/config 」フォルダにコピーします。
root@eop# set deployment cluster common-services ingress user-certificate use-user-certificate true [edit] root@eop# set deployment cluster common-services ingress user-certificate user-certificate-filename "certificate.cert.pem" [edit] root@eop# set deployment cluster common-services ingress user-certificate user-certificate-key-filename "certificate.key.pem" [edit]
どこ:
user-certificate-filenameは、ユーザー証明書のファイル名です。user-certificate-key-filenameは、ユーザー証明書キーのファイル名です。手記:この時点では、証明書のインストールは省略可能です。クラスタ導入後に、カスタムユーザー証明書を使用するようにルーティングディレクターを設定することもできます。クラスタのデプロイ後にユーザー証明書をインストールする方法については、「 ユーザー証明書のインストール」を参照してください。
(オプション)システム生成証明書を使用して、PCEサーバとPath Computation Client(PCC)間のセキュリティを設定し、実施します。
root@eop# set deployment cluster applications pathfinder pce-server pce-server-global-default-tls-mode strict-enable [edit]
どこ:
pce-server-global-default-tls-modePCEP セキュリティを有効にします。auto-detectまたはstrict-enableに設定できます。デフォルトではstrict-disableに設定されています。手記:この時点では、PCEP セキュリティの有効化はオプションです。クラスタ導入後に、PCEPセキュリティを適用するようにルーティングディレクターを設定することもできます。さらに、カスタム証明書を使用して PCEP セキュリティを適用できます。クラスタ展開後にシステム生成証明書またはカスタム証明書を使用して PCEP セキュリティを有効にする方法については、「 PCEP セキュリティを有効にする」を参照してください。
(オプション)クラスターのスケール サイズを構成します。クラスターのインストールに必要な最小限のリソースでクラスターが構成されている場合、クラスターのスケール モードは小さくなります。スケールモードはデフォルトで小に設定されており、この手順はスキップできます。
より多くのデバイスをサポートするクラスターをインストールし、少なくとも 32 個の vCPU と 64 GB の RAM がある場合は、スケール モードを
largeに変更する必要があります。root@eop# set deployment cluster install scale-mode large [edit]
設定をコミットし、設定モードを終了します。
root@eop# commit commit complete [edit] root@eop# exit Exiting configuration mode root@eop>
構成ファイルを生成します。
root@eop> request deployment config Deployment inventory file saved at /epic/config/inventory Deployment config file saved at /epic/config/config.yml
インベントリ ファイルには、VM の IP アドレスが含まれています。
config.yml ファイルには、クラスタの展開に必要な最小限の Routing Director 展開クラスタ設定パラメータが含まれています。
request deployment configコマンドは、config ディレクトリに config.cmgd ファイルも生成します。config.cmgd ファイルには、実行したすべてのsetコマンドが含まれています。config.ymlファイルが誤って編集または破損した場合は、設定モードでload set config/config.cmgdコマンドを使用してクラスターを再デプロイできます。クラスタノードでSSHキーを生成します。
プロンプトが表示されたら、VM の SSH パスワードを入力します。 VM にログインするように構成したものと同じ パスワード を入力します。
root@eop> request deployment ssh-key Setting up public key authentication for ['node1-IP','node2-IP','node3-IP','node4-IP'] Please enter SSH username for the node(s): root Please enter SSH password for the node(s): checking server reachability and ssh connectivity ... Connectivity ok for node1-IP Connectivity ok for node2-IP Connectivity ok for node3-IP Connectivity ok for node4-IP SSH key pair generated in node1-IP SSH key pair generated in node2-IP SSH key pair generated in node3-IP SSH key pair generated in node4-IP copied from node1-IP to node1-IP copied from node1-IP to node2-IP copied from node1-IP to node3-IP copied from node1-IP to node4-IP copied from node2-IP to node1-IP copied from node2-IP to node2-IP copied from node2-IP to node3-IP copied from node2-IP to node4-IP copied from node3-IP to node1-IP copied from node3-IP to node2-IP copied from node3-IP to node3-IP copied from node3-IP to node4-IP copied from node4-IP to node1-IP copied from node4-IP to node2-IP copied from node4-IP to node3-IP copied from node4-IP to node4-IP
手記:VM に異なるパスワードを構成している場合は、プロンプトが表示されたら、対応するパスワードを入力してください。
クラスターをデプロイします。
root@eop> request deployment deploy cluster Process running with PID: 231xx03 To track progress, run 'monitor start /epic/config/log' After successful deployment, please exit Deployment-shell and then re-login to the host to finalize the setup
クラスターのデプロイが開始され、完了するまでに 1 時間以上かかります。
(オプション)画面上で展開の進行状況を監視します。
root@eop> monitor start /epic/config/log
展開の進行状況が表示されます。次のような出力が画面に表示されると、デプロイは完了です。
<output snipped> PLAY RECAP ********************************************************************* node1-IP : ok=2397 changed=1015 unreachable=0 failed=0 rescued=0 ignored=15 node2-IP : ok=192 changed=96 unreachable=0 failed=0 rescued=0 ignored=0 node3-IP : ok=192 changed=96 unreachable=0 failed=0 rescued=0 ignored=0 node4-IP : ok=186 changed=95 unreachable=0 failed=0 rescued=0 ignored=0 Monday 16 June 2025 22:00:57 +0000 (0:00:00.183) 1:01:53.469 ***** =============================================================================== user-registry : Push Docker Images from local registry to paragon registry - 335.76s kubernetes/addons/rook : Wait for Object-Store ------------------------ 213.36s kubernetes/multi-master-rke2 : start rke2 server on 1st master -------- 212.18s jcloud/papi : wait for papi rest api ---------------------------------- 122.19s jcloud/airflow2 : Install Helm Chart ---------------------------------- 117.00s Check if kafka container is up ---------------------------------------- 108.86s Install Helm Chart ---------------------------------------------------- 106.30s kubernetes/addons/postgres-operator : Make sure postgres is fully up and accepting request using regular user -- 73.73s systemd ---------------------------------------------------------------- 62.14s kubernetes/addons/postgres-operator-rb : RB >>> Make sure postgres is fully up and accepting request using regular user -- 52.96s kubernetes/multi-master-rke2 : start rke2 server on other master ------- 51.71s Create Kafka Topics ---------------------------------------------------- 51.48s systemcheck : Get Disk IOPS -------------------------------------------- 49.09s delete existing install config-map - if any ---------------------------- 43.10s paa/timescaledb : Make sure postgres is fully up and accepting request using regular user -- 41.96s kubernetes/multi-master-rke2 : start rke2 server on other master ------- 41.90s Save installer config to configmap ------------------------------------- 41.47s Install Helm Chart ----------------------------------------------------- 35.92s Verify healthbot victoriametrics --------------------------------------- 35.17s kubernetes/addons/vm-operator-rb : Wait for vm storage statefulset and pods -- 31.15s Playbook run took 0 days, 1 hours, 1 minutes, 53 seconds root@eop>
または、
monitorコマンドを使用してデプロイメントの進行状況を画面上で監視することを選択しなかった場合は、file show /epic/config/logコマンドを使用してログファイルの内容を表示できます。ログ ファイルの最後の数行は、 サンプル出力のようになります。ログ ファイルを定期的にチェックして、デプロイの進行状況を監視することをお勧めします。デプロイが正常に完了すると、アプリケーション クラスターが作成されます。VM からログアウトし、デプロイメントシェルに再度ログインします。
コンソール出力には、導入シェルのウェルカム メッセージと 4 つのノード(コントローラ 1 からコントローラ 4 と呼ばれる)の IP アドレス、Active Assurance TAGW VIP アドレス、Web 管理者ユーザの電子メール アドレス、および Web GUI の IP アドレスが表示されます。IPv6 アドレスが設定されている場合、ウェルカム メッセージには IPv6 VIP アドレスも表示されます。
Welcome to Juniper Routing Director Shell This VM is part of a Juniper Routing Director Cluster with IPv6 enabled ======================================================================================= Controller IP : node1-IP, node2-IP, node3-IP, node4-IP PAA Virtual IP : TAGW-vIP, TAGW-vIPv6 UI : https://generic-ingress-vIP, https://[generic-ingress-vIPv6] Web Admin User : admin-user@juniper.net ======================================================================================= ova: 20250526_1117 build: eop-2.6.0.8952.gbef82aec6b *************************************************************** WELCOME TO Routing Director SHELL! You will now be able to execute Routing Director CLI commands! *************************************************************** root@Primary1>CLI コマンド プロンプトに、以前に設定したログイン ユーザー名とノード ホスト名が表示されます。たとえば、プライマリノードのホスト名として「Primary1」と入力した場合、コマンドプロンプトは
root@Primary1 >になります。
これで、クラスタのデプロイメントを検証し、Web GUI にログインできます。ルーティング・ディレクター・ネットワークの外部にある外部IPアドレスから Web GUI にアクセスする場合は、NAT を使用して外部IPアドレスを Web GUI の IP アドレスにマッピングする必要があります。 Web GUI へのログインに進みます。