Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Red Hat Enterprise Linux のインストール前提条件

Paragon Automationクラスターを正常にインストールして展開するには、複数のクラスターノードに配布ソフトウェアをインストールする制御ホストが必要です。制御ホストに配布ソフトウェアをダウンロードし、インストール ファイルを作成して設定し、制御ホストからインストールを実行できます。制御ホストでパッケージをダウンロードするには、 インターネットにアクセスでき る必要があります。また、DockerやOSパッチなどの追加ソフトウェアをダウンロードするには、クラスターノードでインターネットにアクセスできる必要があります。または、クラスターノードがインターネットにアクセスできない場合は、エアギャップ方式のインストールを使用できます。

インストール タスクの順序を 図 1 に大まかに示します。

図1:Paragon AutomationStep-by-step system installation workflow: prepare control host and nodes, download files, initialize config, edit inventory, configure, deploy, log in to Web UI.をインストールするための大まかなプロセス フロー

ディストリビューションソフトウェアをダウンロードしてインストールする前に、このトピックで説明されているように、制御ホストとクラスターノードを設定する必要があります。

制御ホストの準備

制御ホストは、Paragon Automationクラスターのインストールとアップグレードをオーケストレーションする専用マシンです。ホスト 機能の制御に説明されているように、ソフトウェアインストーラを実行し、クラスターノードにソフトウェアをインストールするAnsible操作を実行します。

インストーラパッケージは、Ansible制御ホストにダウンロードする必要があります。Paragon Automationのインストールプロセスの一環として、制御ホストはクラスターノードに必要な追加パッケージをインストールします。パッケージには、オプションのOSパッケージ、Docker、Elasticsearchが含まれています。サードパーティのマイクロサービスを含むすべてのマイクロサービスが、クラスターノードにダウンロードされます。マイクロサービスは、インストール中にパブリックレジストリにアクセスしません。

制御ホストは、クラスターノードとは異なるブロードキャストドメイン上に置くことができますが、制御ホストがSSHを使用してすべてのノードに接続できることを確認する必要があります。

図2:ホスト機能の制御 Network architecture diagram for Paragon Automation showing Control Host as Ansible Node for installation and upgrades, Primary1 and Primary2 as Control Plane Nodes, Worker1 and Worker2 as Compute Nodes, all connected by Control Plane Network indicating communication paths.

インストールが完了すると、制御ホストはクラスターの機能に役割を果たしません。ただし、ソフトウェアまたはコンポーネントを更新したり、クラスターに変更を加えたり、ノードに障害が発生した場合にクラスターを再インストールしたりするには、制御ホストが必要です。制御ホストを使用して、設定ファイルをアーカイブすることもできます。インストール後は、制御ホストを使用可能にし、他の用途に使用しないことをお勧めします。

インストールプロセス用の制御ホストを次のように準備します。

  1. ベースOSのインストール—Red Hat Enterprise Linux(RHEL)をインストールします。Paragon Automationは、RHEL 8.4およびRHEL 8.10との連携に対応しています。Paragon Automationは、RHEL 8.8を実験的にサポートしています。
    注:

    RHEL バージョン 8.10 を使用している場合は、以下の RPM バンドルを削除する必要があります。

  2. Dockerのインストール—制御ホストにDockerをインストールして設定し、Linuxコンテナ環境を実装します。Paragon Automationは、Docker CEとDocker EEをサポートしています。制御ホストにインストールすることを選択したDockerバージョンは、クラスターノードで使用する予定のDockerバージョンとは独立しています。

    Docker EE をインストールする場合は、インストールする前にトライアルまたはサブスクリプションがあることを確認してください。Docker EE、サポートされているシステム、およびインストール手順の詳細については、「 https://www.docker.com/blog/docker-enterprise-edition/」を参照してください。

    Docker CE をダウンロードしてインストールするには、次の手順を実行します。 Docker がインストールされ、実行されていることを確認するには、 # docker run hello-world コマンドを使用します。

    インストールされているDockerのバージョンを確認するには、 # docker --version コマンドを使用します。

    詳細な手順と詳細については、 https://docs.docker.com/engine/install/rhel/ を参照してください。
  3. SSHクライアント認証の設定—制御ホストで実行されているインストーラーは、SSHを使用してクラスターノードに接続します。SSH認証では、スーパーユーザー(sudo)権限を持つrootまたはroot以外のユーザーアカウントを使用する必要があります。後続の手順では、このアカウントをインストールユーザーアカウントと呼びます。インストールユーザーアカウントがクラスター内のすべてのノードで構成されていることを確認する必要があります。インストーラーは、インベントリ ファイルを使用して、使用するユーザー名と、認証で SSH キーとパスワードのどちらを使用するかを決定します。マルチノード実装のインベントリ・ファイルのカスタマイズを参照してください。

    ssh-key認証(推奨)の方法を選択した場合は、SSHキーを生成します。

    SSH キーをパスフレーズで保護したい場合は、キー マネージャーを使用できます ssh-agenthttps://www.ssh.com/academy/ssh/agent を参照してください。

    注:

    次のセクションで説明するように、クラスター ノードの準備タスクの一環として、このキーをノードにコピーする必要があります。

  4. (オプション)wgetのインストールwgetユーティリティをインストールして、Paragon Automation配布ソフトウェアをダウンロードします。

    # yum install wget

    または、 rsync またはその他のファイルダウンロードソフトウェアを使用して、配布ソフトウェアをコピーすることもできます。

クラスター ノードの準備

プライマリ ノードとワーカー ノードは、総称して クラスター ノードと呼ばれます。各クラスターノードには、 図3に示すように、少なくとも1つの一意の静的IPアドレスが必要です。ホスト名を設定するときは、小文字のみを使用し、ハイフン(-)またはピリオド(.)以外の特殊文字は使用しないでください。概要セクションで説明したように、実装にParagon Automationコンポーネント間の通信を提供するための別のIPネットワークがある場合、その別のネットワーク内のIPアドレスがクラスターの外部から到達可能である必要はありません。ただし、その後、ワーカーノードに2番目のIPアドレスセットを割り当てる必要があります。これらのIPアドレスにより、クラスター外のデバイスがワーカーノードに到達できるようになり、以下間の通信も可能になります。

  • Paragon Automationと管理対象デバイス
  • Paragon Automationとネットワーク管理者

すべてのノードを同じブロードキャストドメインに配置することをお勧めします。異なるブロードキャストドメインのクラスターノードについては、ロード バランシングの設定 で追加のロードバランシング設定を参照してください。

図3:クラスターノード機能High-level architecture diagram of a Kubernetes cluster managed by Paragon Automation, showing control plane nodes, compute nodes, and a control host Ansible Node.

Paragon Automationのシステム要件で説明されているように、マルチノード導入を使用してParagon Automationをインストールできます。

Paragon Automationのインストールプロセス用に、クラスターノードは次のように準備する必要があります。

  1. ローディスクストレージの設定—クラスターノードには、パーティション化されていないディスクまたはフォーマットされていないディスクパーティションが接続されたローストレージブロックデバイスが必要です。また、ルートパーティションと他のファイルシステムが使用可能なディスク領域の一部を使用できるように、ノードをパーティション化することもできます。残りのスペースは、ファイルシステムなしでフォーマットされていないままにして、Ceph が使用できるように予約する必要があります。詳細については、「ディスク要件」を参照してください。
    注:

    Ceph がパーティション化されていないディスクまたはフォーマットされていないディスクパーティションを使用できるようにするために、何もインストールまたは設定する必要はありません。Paragon Automation のインストールプロセスでは、Ceph ストレージ用のスペースが自動的に割り当てられます。

    マルチノードクラスターの場合、ストレージスペースが接続されたクラスターノードが少なくとも3つ必要です。

    Ceph には、新しいバージョンのカーネルが必要です。Linux カーネルが非常に古い場合は、新しいカーネルをアップグレードまたは再インストールすることを検討してください。お使いの OS で Ceph がサポートする最小 Linux カーネルバージョンのリストは、 https://docs.ceph.com/en/latest/start/os-recommendations を参照してください。

  2. ベースOSをインストールする—RHELをインストールします。Paragon Automationは、RHEL 8.4およびRHEL 8.10との連携に対応しています。Paragon Automation は、RHEL 8.8 での実験的サポートも提供しています。
    注:

    RHEL バージョン 8.10 を使用している場合は、以下の RPM バンドルを削除する必要があります。

  3. インストールユーザーアカウントの作成—インストールユーザーは、Ansibleプレイブックがプライマリノードとワーカーノードにログインし、すべてのインストールタスクを実行するために使用するユーザーです。root パスワードまたは スーパーユーザー(sudo)権限を持つアカウントを設定していることを確認します。この情報は、インストールプロセス中にインベントリファイルに追加します。
    rootユーザーパスワードを設定します。
  4. SSHのインストール認証—制御ホストで実行されているインストーラーは、インストールユーザーアカウントを使用してSSH経由でクラスターノードに接続します。
    1. クラスターノードにログインし、すべてのノードにopen-sshサーバーをインストールします。
    2. sshd_configファイルを編集します。

      # vi /etc/ssh/sshd_config

    3. インストールユーザーアカウントとして「root」を使用している場合は、rootログインを許可します。

      PermitRootLogin yes

      認証にプレーンテキストパスワードを使用することを選択した場合は、パスワード認証を有効にする必要があります。

      PasswordAuthentication yes

      パスワード認証の使用は推奨されません。

    4. AllowTcpForwardingパラメーターがyesに設定されていることを確認します。

      AllowTcpForwarding yes
      注:

      AllowTcpForwardingパラメーターがnoに設定されている場合、Paragon Automationインストールは失敗します。

    5. /etc/ssh/sshd_configを変更した場合は、SSHデーモンを再起動します。

      # systemctl restart sshd

    6. 制御ホストにログインします。
      1. SSH キーを使用した認証を許可するには、 id_rsa.pub を クラスター ノードにコピーします。

        クラスター内の すべての ノード(プライマリとワーカー)に対してこの手順を繰り返します。 cluster-node-IP は、 図 3 に示すノードの一意のアドレスです。代わりにホスト名を使用する場合、Ansible制御ホストは名前をIPアドレスに解決できるはずです。

      2. SSH認証を使用して、インストールユーザーアカウントを使用してクラスターノードにログインします。ログインにパスワードは必要ありません。

        SSHを使用して、インストールユーザーアカウントを使用して制御ホストからクラスター内のすべてのノード(プライマリとワーカー)に接続できる必要があります。ログインできない場合は、前の手順を確認し、見逃していないことを確認してください。

  5. Dockerのインストール—インストールする次のDockerバージョンのいずれかを選択します。
    • Docker CE—Docker CEを使用する場合は、クラスターノードにインストールする必要はありません。deployスクリプトは、インストール中にノードにDocker CEをインストールしParagon Automation。

    • Docker EE—Docker EEを使用する場合は、すべてのクラスターノードにDocker EEをインストールする必要があります。ノードにDocker EEをインストールすると、deployスクリプトはインストールされているバージョンを使用し、代わりにDocker CEをインストールしようとしません。Docker EE とサポートされているシステムの詳細、および Docker EE をダウンロードしてインストールする手順については、「https://www.docker.com/blog/docker-enterprise-edition/」を参照してください。

    クラスター ノードにインストールするために選択した Docker バージョンは、制御ホストにインストールされている Docker バージョンに依存しません。

  6. ファイアウォールを無効にする—ローカルファイアウォールを無効にします。

    # systemctl stop firewalld

    # systemctl disable firewalld

    # systemctl mask firewalld

    # systemctl mask system-udevd –now

    外部ファイアウォールでクラスターを保護することをご検討ください。

  7. Pythonのインストール—Python 3がOSにプリインストールされていない場合は、クラスターノードにインストールします。

    # yum install python3

    インストールされているPythonのバージョンを確認するには、 # python3 --version コマンドを使用します。

  8. # yum list installedコマンドを使用して、以下のパッケージがインストールされていることを確認します。

    bash-completion, gdisk, iptables, lvm2, python-six, PyYAML, openssl, python3-pip, network-scripts, fio, jq, pytz

    また、トラブルシューティングに役立つ以下のオプションパッケージのインストールを推奨します。

    net-tools, tcpdump, traceroute

  9. これらのコマンドを実行して、以下のパッケージをダウンロードしてインストールします。

    rpm -Uvh python3-markupsafe-0.23-19.el8.x86_64.rpm

    rpm -Uvh python3-pytz-2017.2-11.el8.noarch.rpm

    rpm -Uvh python3-babel-2.5.1-7.el8.noarch.rpm

    rpm -Uvh python3-jinja2-2.10.1-3.el8.noarch.rpm

  10. NTPのインストールと有効化—すべてのノードは常にNTPまたはその他の時刻同期を実行する必要があります。デフォルトでは、Paragon AutomationはChrony NTPクライアントをインストールします。Chronyを使用したくない場合は、すべてのノードに代替サービスを手動でインストールし、timedatectlコマンドがクロックが同期されていることを報告することを確認する必要があります。ただし、エアギャップ方式でParagon Automationをインストールしたい場合、Chronyを使用したい場合は、Chronyを事前インストールする必要があります。インストーラーは、エアギャップ設置中にChronyをインストールしません。
  11. (オプション)Linuxカーネルバージョンのアップグレード—Paragon Automationのインストール要件を満たすために、RHELサーバーのカーネルバージョンを最新のLTSバージョンにアップグレードします。

    Red Hat Enterprise Linux (RHEL) 8.4 の場合は、Linux カーネルバージョンが 4.18 以降であることを確認します。

仮想IPアドレスに関する考慮事項

Kubernetesワーカーノードは、アプリケーションのワークロードを処理するポッドをホストします。

ポッドは、Kubernetesで作成および管理されるコンピューティングの導入可能な最小ユニットです。ポッドには、共有ストレージとネットワークリソース、およびアプリケーションの実行方法に関する具体的な指示が記載された1つ以上のコンテナが含まれています。コンテナは最も低いレベルの処理であり、アプリケーションやマイクロサービスはコンテナ内で実行します。

クラスター内のプライマリノードは、特定のポッドとコンテナをホストするワーカーノードを決定します。

マイクロサービスを組み合わせて、Paragon Automationのすべての機能を実装します。これらのマイクロサービスの一部は、エンドユーザー(管理対象デバイス)や管理者にサービスを提供する際に、クラスターの外部からアクセスできるようにする必要があります。例えば、プロバイダエッジ(PE)ルーターとParagon Automationの間にPath Computation Element Protocol(PCEP)セッションを確立するには、pceserverサービスにアクセスできるようにする必要があります。

これらのサービスを、外部デバイスから到達可能な特定のアドレスを使用して、Kubernetesクラスターの外部に公開する必要があります。サービスは特定の時点でどのワーカーノードでも実行できるため、外部アドレスとして仮想IPアドレス(VIP)を使用する必要があります。特定のワーカーノードのアドレスを外部アドレスとして使用しないでください。

Diagram of Paragon Automation network architecture showing two compute nodes: Worker1 and Worker2, connected via a Control Plane Network to a PCC. Includes PCEP connection details and color-coded clusters, nodes, pods, and containers.

この例では:

  • ワーカー1が10.1.x.3で、ワーカー2が10.1.x.4であると考えます。

  • サービスIP = PCEP VIPは10.1.x.200です

  • PCC_IPは 10.1.x.100 です

Paragon Automationサービスは、クラスター外にサービスを公開する2つの方法のうちの1つを使用します。

  • ロードバランサ—各ロードバランサは特定のIPアドレスに関連付けられ、外部トラフィックをクラスター内の特定のサービスにルーティングします。これは、クラウドへの多くのKubernetesインストールのデフォルトの方法です。ロードバランサ方式では、複数のプロトコルとサービスごとに複数のポートがサポートされます。各サービスには、独自のロード バランサーと IP アドレスがあります。

    Paragon Automationは、MetalLBロードバランサーを使用します。MetalLBは、レイヤー2モードで仮想IPアドレスを管理するか、レイヤー3モードで外部ルーターと対話することで、外部ロードバランサーをシミュレートします。MetalLBは、Kubernetesクラスターにロードバランシングインフラストラクチャを提供します。

    タイプ「LoadBalancer」のサービスは、Kubernetesロードバランシングインフラストラクチャと対話して、外部から到達可能なIPアドレスを割り当てます。一部のサービスは外部IPアドレスを共有できます。

  • イングレス—イングレス方式は、プロキシとして機能してトラフィックをクラスターに取り込み、内部サービスルーティングを使用してトラフィックを宛先にルーティングします。内部的には、この方法では、ロード バランサー サービスを使用して自分自身を世界に公開し、プロキシとして機能できるようにします。

    Paragon Automationは、以下のイングレスプロキシを使用します。

    • アンバサダー
    • Nginx

クラスター外のデバイスは以下のサービスにアクセスする必要があるため、これらのサービスにはVIPアドレスが必要です。

の ロード
表1:VIPが必要なサービス
必須のVIPアドレス説明バランサ/プロキシ

ingressコントローラ

Web経由でParagon Automation GUIにアクセスするために使用します。

Paragon Automationは、コンポーネントとアプリケーションへのアクセスを提供する共通のWebサーバーを提供します。サーバーへのアクセスは、Kubernetes Ingressコントローラーを介して管理されます。

アンバサダー

メタルLB

Paragon Insightsサービス

syslog、DHCP リレー、JTI などの Insights サービスに使用されます。

メタルLB

Paragon Pathfinder PCEサーバー

ネットワーク内のデバイスとのPCEPセッションを確立するために使用します。

メタルLB

SNMPトラップレシーバープロキシ(オプション)

この機能が必要な場合にのみ、SNMPトラップレシーバープロキシのユーザー。

メタルLB

インフラストラクチャNginx ingressコントローラ

Paragon Pathfinder netflowdサーバー、およびオプションでParagon Pathfinder PCEサーバーのプロキシとして使用されます。

Nginx Ingressコントローラーには、MetalLBロードバランサープール内にVIPが必要です。つまり、インストールプロセス中に、設定ファイルの作成時に含める必要があるLoadBalancer IPアドレス範囲の一部としてこのアドレスを含める必要があります。

Nginx

メタルLB

Pathfinder Netflowd

Paragon Pathfinder netflowdサーバーに使用されます。

Netflowd は Nginx をプロキシとして使用できるため、独自の VIP アドレスは必要ありません。

メタルLB

レジストリ(オプション)

プライマリノード上の複数のコンテナレジストリに接続するために使用します。

-

PCEPサーバー(オプション)

MD5認証用のPCEサーバーに使用されます。

-

cRPD(オプション)

MD5認証用のBGPモニタリングプロトコル(BMP)ポッドに接続するために使用します。

-

アンバサダーが使用するポート:

  • HTTP 80(TCP)からHTTPSへのリダイレクト

  • HTTPS 443(TCP)

  • Paragon Planner 7000(TCP)

  • DCS/NETCONF 開始 7804(TCP)

図4:アンバサダー Kubernetes cluster with Ambassador-based ingress routing. Three workers host service pods and Ambassador API gateway pods. An Ambassador Agent Pod is on Worker3. Ambassador Ingress routes traffic from a load balancer to service pods.

Insights Services、パス計算要素(PCE)サーバー、SNMP で使用されるポート:

  • インサイトサービス

    JTI 4000(UDP)

    DHCP(ZTP)67(UDP)

    SYSLOG 514(UDP)

    SNMP プロキシ 162(UDP)

  • PCEサーバー

    PCEP 4189(TCP)

  • SNMP

    SNMPトラップレシーバー162(UDP)

図5:サービスKubernetes cluster architecture with load balancer distributing traffic to service pods on worker nodes.で使用されるポート

Nginxコントローラーで使用されるポート:

  • NetFlow 9000(UDP)

  • PCEP 4189(TCP)

PCEPにNginxを使用する

インストールプロセス中に、PCEPのingressプロキシを有効にするかどうかを尋ねられます。パス計算要素(PCE)サーバーのプロキシとして、 None または Nginx-Ingress から選択できます。

プロキシとして Nginx-Ingress を選択した場合、表で説明されているPCEサーバーのVIP を設定する必要はありません。 この場合、インフラストラクチャNginx Ingress ControllerのVIPアドレスはPCEサーバーにも使用されます。netflowdプロキシを使用しない場合、インフラストラクチャNginx IngressコントローラのVIPがnetflowdにも使用されます。

注:

Nginx を使用する利点は、複数のサービスに 1 つの IP アドレスを使用できることです。

図6:NginxコントローラKubernetes cluster architecture with NGINX Ingress managing external traffic. Shows Load Balancer, NGINX Ingress, Service Pods, and Worker Nodes.

マルチプライマリノード導入におけるレジストリのVIPアドレス

複数のプライマリノードでセットアップを展開し、複数のコンテナーレジストリ(各プライマリノードに1つずつ)を展開する場合は、クラスターノードと同じブロードキャストドメインに追加のVIPアドレスが必要になります。このアドレスは、各プライマリノードにデプロイされているコンテナーレジストリに接続するために使用されます。

インストール ウィザードでは、この IP アドレスがレジストリの仮想 IP アドレスとして参照されます。MetalLBロードバランサのVIPアドレスプールに、このVIP アドレスを含めることはできません

MD5認証用のVIPアドレス

MD5認証を設定して、ルーターとParagon Pathfinder間のPCEPセッションを保護し、BMPサービスが正しいBGP-LSルーターとピアリングしていることを確認できます。Paragon Automationは、Multusを使用して、ルーターに直接アクセスできるようにPCEサーバーとBMPポッドにセカンダリインターフェイスを提供します。クラスターノードと同じサブネットに、以下のVIPアドレスが必要です。

  • CIDR形式のPCEサーバーのVIPアドレス

  • CIDR形式のcRPDのVIPアドレス

MetalLBロード・バランサのVIPアドレス・プールには、これらのVIP アドレスを含めることはできません

MD5 認証を設定する場合は、ルーターで認証キーと仮想 IP アドレスを追加設定する必要があります。また、Paragon Automation UIで認証キーを設定する必要があります。

  • PCEサーバー上のMD5。—ルーターでMD5認証キーを設定し、ルーターでParagon Automation UIとVIPアドレスを設定します。

    • Junos CLI で以下を設定します。

      user@pcc# set protocols pcep pce pce-id authentication-key pce-md5-key

      user@pcc# set protocols pcep pce pce-id destination-ipv4-address vip-for-pce

    • デバイスの設定>Device Nameの編集ページのプロトコル:PCEPセクションにあるMD5文字列フィールドにpce-md5-key認証キーを入力します>。

    MD5認証キーは 79 文字以下である必要があります。

  • cRPD上のMD5—cRPD MD5認証キーを決定し、ルーターでcRPDのキーとVIPアドレスを設定します。

    1. MD5認証キーは、以下の方法で決定または設定します。

      1. confコマンドスクリプトを実行し、cRPDでMD5認証を有効にします。config.ymlファイルでcrpd_auth_keyパラメーターを検索します。キーが存在する場合は、cRPDがMD5用に設定されていることを示しています。例:crpd_auth_key : northstar config.ymlファイルにあるキーを使用して(またはキーを編集することもできます)、ルーターに入力できます。

      2. config.yml ファイルに MD5 認証 キーがない場合は、cRPD にログインし、次のいずれかのコマンドを使用して 認証 キーを設定する必要があります。

        set groups extra protocols bgp group name authentication-key crpd-md5-key

        または

        set protocols bgp group name authentication-key crpd-md5-key

        MD5認証キーは 79 文字以下である必要があります。

    2. cRPDでMD5を有効にするようにルーターを設定します。

      user@pcc# set protocols bgp group name neighbor vip-for-crpd authentication-key md5-key
注:

Paragon Automationのインストールプロセスを開始する前に、必要なすべてのVIPアドレスを特定する必要があります。インストールプロセスの一環として、これらのアドレスを入力するよう求められます。

ロードバランシングの設定

VIPはデフォルトでレイヤー2で管理されます。すべてのクラスターノードが同じブロードキャストドメイン内にある場合、各VIPアドレスは一度に1つのクラスターノードに割り当てられます。レイヤー2モードではVIPのフェイルオーバーが実現しますが、実際のロードバランシングは提供されません。クラスターノード間で真のロードバランシングを行う場合、またはノードが異なるブロードキャストドメインにある場合は、レイヤー3でロードバランシングを設定する必要があります。

VIP アドレスをネットワークにアドバタイズするには、BGP ルーターを設定する必要があります。BGP ルーターが ECMP を使用して、異なるホスト間の TCP/IP セッションのバランスを取ることを確認します。BGP ルーターをクラスターノードに直接接続します。

クラスターノードでロードバランシングを設定するには、 config.yml ファイルを編集します。例えば:

この例では、192.x.x.1のBGPルーターが、10.x.x.0/24プレフィックスを持つVIPアドレスの到達可能性をネットワークの残りの部分にアドバタイズする役割を担っています。クラスターは、この範囲のVIPアドレスを割り当て、アドレスを処理できるクラスターノードにアドレスをアドバタイズします。

DNSサーバーを設定する(オプション)

メインWebゲートウェイには、イングレスコントローラーのVIPアドレス、またはイングレスコントローラーのVIPアドレスに解決されるドメインネームシステム(DNS)サーバーで構成されたホスト名を介してアクセスできます。DNSサーバーを設定する必要があるのは、ホスト名を使用してWebゲートウェイにアクセスする場合だけです。

ホスト名をA、AAAA、またはCNAMEレコードとしてDNSに追加します。ラボおよび概念実証(POC)のセットアップでは、クラスターノードの /etc/hosts ファイルにホスト名を追加できます。