Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Requisitos previos de instalación en Ubuntu

Para instalar e implementar correctamente un clúster de Paragon Automation, debe tener un host de control que instale el software de distribución en varios nodos del clúster. Puede descargar el software de distribución en el host de control y, a continuación, crear y configurar los archivos de instalación para ejecutar la instalación desde el host de control. Debe tener acceso a Internet para descargar los paquetes en el host de control. También debe tener acceso a Internet en los nodos del clúster para descargar cualquier software adicional, como parches de Docker y OS. El orden de las tareas de instalación se muestra en un nivel alto en la Figura 1.

Figura 1: Flujo de proceso de alto nivel para instalar Paragon Automation High-Level Process Flow for Installing Paragon Automation

Antes de descargar e instalar el software de distribución, debe configurar el host de control y los nodos del clúster como se describe en este tema.

Preparar el host de control

El host de control es una máquina dedicada que organiza la instalación y actualización de un clúster de Paragon Automation. Lleva a cabo las operaciones de Ansible que ejecutan el instalador de software e instalan el software en los nodos del clúster, como se ilustra en Funciones del host de control.

Debe descargar los paquetes del instalador en el host de control de Ansible. Como parte del proceso de instalación de Paragon Automation, el host de control instala los paquetes adicionales necesarios en los nodos del clúster. Los paquetes incluyen paquetes opcionales de SO, Docker y Elasticsearch. Todos los microservicios, incluidos los microservicios de terceros, se descargan en los nodos del clúster. Los microservicios no acceden a ningún registro público durante la instalación.

El host de control puede estar en un dominio de difusión distinto del de los nodos del clúster, pero debe asegurarse de que el host de control pueda usar SSH para conectarse a todos los nodos.

Figura 2: Funciones Control Host Functions del host de control

Una vez completada la instalación, el host de control no desempeña ninguna función en el funcionamiento del clúster. Sin embargo, necesitará que el host de control actualice el software o cualquier componente, realice cambios en el clúster o reinstale el clúster si falla un nodo. También puede utilizar el host de control para archivar archivos de configuración. Le recomendamos que mantenga el host de control disponible, y no lo utilice para otra cosa, después de la instalación.

Prepare el host de control para el proceso de instalación de la siguiente manera:

  1. Instalar el sistema operativo base: instale Ubuntu versión 20.04.4 LTS (Focal Fossa) o Ubuntu 22.04.2 LTS (Jammy Jellyfish). La versión 23.2 está calificada para trabajar con Ubuntu 22.04.2 LTS (Jammy Jellyfish).
  2. Instalar Docker: instale y configure Docker en el host de control para implementar el entorno de contenedor de Linux. Paragon Automation admite Docker CE y Docker EE. La versión de Docker que elija instalar en el host de control es independiente de la versión de Docker que planea usar en los nodos del clúster.

    Si desea instalar Docker EE, asegúrese de tener una versión de prueba o suscripción antes de la instalación. Para obtener más información acerca de Docker EE, los sistemas compatibles y las instrucciones de instalación, consulte https://www.docker.com/blog/docker-enterprise-edition/.

    Para descargar e instalar Docker CE, realice los pasos siguientes: Para comprobar que Docker está instalado y en ejecución, utilice el # docker run hello-world comando.

    Para comprobar la versión de Docker instalada, utilice los # docker version comandos o # docker --version .

    Para obtener instrucciones completas y más información, consulte https://docs.docker.com/engine/install/ubuntu/.
  3. Configurar autenticación de cliente SSH: el instalador que se ejecuta en el host de control se conecta a los nodos del clúster mediante SSH. Para la autenticación SSH, debe usar una cuenta de usuario raíz o no root con privilegios de superusuario (sudo). Nos referiremos a esta cuenta como la cuenta de usuario de instalación en pasos posteriores. Debe asegurarse de que la cuenta de usuario de instalación esté configurada en todos los nodos del clúster. El instalador usará el archivo de inventario para determinar qué nombre de usuario usar y si la autenticación usará claves SSH o una contraseña. Consulte Personalizar el archivo de inventario - Implementación de varios nodos.

    Si elige el método de ssh-key autenticación (recomendado), genere la clave SSH.

    Si desea proteger la clave SSH con una frase de contraseña, puede usar ssh-agent el administrador de claves. Véase https://www.ssh.com/academy/ssh/agent.

    Nota:

    Deberá copiar esta clave en los nodos como parte de las tareas de preparación de los nodos del clúster, como se describe en la siguiente sección.

  4. (Opcional) Instalar wget: instale la wget utilidad para descargar el software de distribución de Paragon Automation.

    # apt install wget

    Alternativamente, puede usar rsync cualquier otro software de descarga de archivos para copiar el software de distribución.

Preparar nodos de clúster

Los nodos principal y de trabajo se denominan colectivamente nodos de clúster. Cada nodo del clúster debe tener al menos una dirección IP estática única, como se ilustra en la figura 3. Al configurar los nombres de host, utilice únicamente letras minúsculas y no incluya caracteres especiales que no sean el guión (-) ni el punto (.). Si la implementación tiene una red IP independiente para proporcionar comunicación entre los componentes de Paragon Automation, como se describe en Descripción general de la instalación de la cartera de Paragon Automation, debe asignar un segundo conjunto de direcciones IP a los nodos de trabajo. Estas direcciones IP permiten que los dispositivos fuera del clúster lleguen a los nodos de trabajo y también permiten la comunicación entre:
  • Paragon Automation y los dispositivos administrados
  • Paragon Automation y el administrador de red

Se recomienda colocar todos los nodos en el mismo dominio de difusión. Para nodos de clúster en diferentes dominios de difusión, consulte Configurar equilibrio de carga para obtener más configuración de equilibrio de carga.

Figura 3: Funciones Cluster Node Functions del nodo del clúster

Como se describe en Requisitos del sistema de Paragon Automation, puede instalar Paragon Automation mediante una implementación de varios nodos.

Debe preparar los nodos del clúster para el proceso de instalación de Paragon Automation de la siguiente manera:

  1. Configurar almacenamiento en disco sin formato: los nodos del clúster deben tener dispositivos de bloque de almacenamiento sin formato con discos sin particiones o particiones de disco sin formato conectados. También puede particionar los nodos de manera que la partición raíz y otros sistemas de archivos puedan utilizar una parte del espacio en disco disponible. Debe dejar el espacio restante sin formato, sin sistemas de archivos, y reservarlo para que Ceph lo use. Para obtener más información, consulte Requisitos de disco.
    Nota:

    No es necesario instalar ni configurar nada para permitir que Ceph use los discos sin particiones o las particiones de disco sin formato. El proceso de instalación de Paragon Automation asigna automáticamente el espacio para el almacenamiento de Ceph.

    Para clústeres de varios nodos, debe tener un mínimo de tres nodos de clúster con espacio de almacenamiento adjunto. Es decir, un mínimo de tres nodos de trabajo con un disco sin particiones o una partición de disco sin formato para almacenamiento.

    La instalación falla si los discos sin formato no están disponibles.

    Ceph requiere versiones más recientes del kernel. Si su kernel de Linux es muy antiguo, considere actualizar o reinstalar uno nuevo. Para obtener una lista de las versiones mínimas del kernel de Linux compatibles con Ceph para su sistema operativo, consulte https://docs.ceph.com/en/latest/start/os-recommendations. Para actualizar la versión del kernel de Linux, consulte Actualizar la versión del kernel de Ubuntu Linux.

    Nota:

    Ceph no funciona en la versión 4.15.0-55.60 del kernel de Linux.

  2. Instalar el sistema operativo base: instale Ubuntu versión 20.04.4 LTS (Focal Fossa) o Ubuntu 22.04.2 LTS (Jammy Jellyfish). La versión 23.2 está calificada para trabajar con Ubuntu 22.04.2 LTS (Jammy Jellyfish).
  3. Crear cuenta de usuario de instalación: el usuario de instalación es el usuario que utilizan los manuales de estrategia de Ansible para iniciar sesión en los nodos principal y de trabajo y realizar todas las tareas de instalación. Asegúrese de configurar una contraseña raíz o una cuenta con privilegios de superusuario (sudo). Agregará esta información al archivo de inventario durante el proceso de instalación.
    Establezca la contraseña de usuario raíz.
  4. Instalar autenticación SSH: el instalador que se ejecuta en el host de control se conecta a los nodos del clúster a través de SSH mediante la cuenta install-user.
    1. Inicie sesión en los nodos del clúster. e instale el servidor open-SSH en todos los nodos.
    2. Edite el archivo sshd_config .

      # vi /etc/ssh/sshd_config

    3. Si está utilizando "root" como cuenta de usuario de instalación, permita el inicio de sesión en root.

      PermitRootLogin yes

      Si elige usar una contraseña de texto sin formato para la autenticación, debe habilitar la autenticación con contraseña.

      PasswordAuthentication yes

      No recomendamos el uso de autenticación con contraseña.

    4. Asegúrese de que el AllowTcpForwarding parámetro está establecido en yes.

      AllowTcpForwarding yes
      Nota:

      Se produce un error en la instalación de Paragon Automation cuando el AllowTcpForwarding parámetro se establece en no.

    5. Si cambió /etc/ssh/sshd_config, reinicie el demonio SSH.

      # systemctl restart sshd

    6. Inicie sesión en el host de control:
      1. Para permitir la autenticación mediante la clave SSH, copie id_rsa.pub en los nodos del clúster.

        Repita este paso para todos los nodos del clúster (principal y trabajadores). cluster-node-IP es la dirección única del nodo como se muestra en la figura 3. Si en su lugar se utiliza un nombre de host, el host de control de Ansible debería poder resolver el nombre en su dirección IP.

      2. Utilice la autenticación SSH para iniciar sesión en el nodo del clúster con la cuenta install-user. No debe necesitar una contraseña para iniciar sesión.

        Debe poder usar SSH para conectarse a todos los nodos del clúster (principal y de trabajo) desde el host de control mediante la cuenta install-user. Si no puede iniciar sesión, revise los pasos anteriores y asegúrese de no perderse nada.

  5. Instalar Docker: seleccione una de las siguientes versiones de Docker para instalar.
    • Docker CE: si desea utilizar Docker CE, no es necesario instalarlo en los nodos del clúster. El deploy script instala Docker CE en los nodos durante la instalación de Paragon Automation.

    • Docker EE: si desea utilizar Docker EE, debe instalar Docker EE en todos los nodos del clúster. Si instala Docker EE en los nodos, la secuencia de deploy comandos utiliza la versión instalada y no intenta instalar Docker CE en su lugar. Para obtener más información acerca de Docker EE y los sistemas compatibles, así como para obtener instrucciones sobre cómo descargar e instalar Docker EE, consulte https://www.docker.com/blog/docker-enterprise-edition/.

    La versión de Docker que elija instalar en los nodos del clúster no depende de la versión de Docker instalada en el host de control.

  6. Instalar Python: instale Python 3, si no está preinstalado con su sistema operativo, en los nodos del clúster:

    # apt install python3

    Para verificar la versión de Python instalada, use el # python3 -V comando o # python3 --version .

  7. Utilice el # apt list --installed comando y asegúrese de que están instalados los siguientes paquetes:

    apt-transport-https, bash-completion, gdisk, iptables, lvm2, openssl

    Si desea utilizar el método air-gap para instalar Paragon Automation en un clúster que ejecute el sistema operativo base de Ubuntu, asegúrese de que los siguientes paquetes estén preinstalados:
    ca-certificates, curl, docker.io, jq, keepalived

    Además, se recomienda instalar los siguientes paquetes opcionales para ayudar en la solución de problemas:

    net-tools, tcpdump, traceroute

  8. Si su sistema operativo base es Ubuntu versión 20.04.4 LTS, establezca el iptables FORWARD directiva de cadena a ACCEPT en todos los nodos del clúster.
    1. Inicie sesión en un nodo de clúster.

    2. Establezca la directiva de iptables FORWARD cadena en ACCEPT.

    3. Instale el iptables-persistent paquete para que el cambio sea persistente durante los reinicios.

      Puede optar por responder no si se le pide que guarde las reglas.

    4. Agregue la regla siguiente.

    5. Elimine el archivo /etc/iptables/rules.v6 .

    Repita estos pasos en todos los nodos del clúster.
  9. Instalar y habilitar NTP: todos los nodos deben ejecutar el protocolo de tiempo de red (NTP) o cualquier otro protocolo de sincronización de tiempo en todo momento. De forma predeterminada, Paragon Automation instala el cliente Chrony NTP. Si no desea usar Chrony, puede instalar manualmente NTP en todos los nodos y asegurarse de que el timedatectl comando informe que los relojes están sincronizados. Sin embargo, si desea utilizar el método air-gap para instalar Paragon Automation y desea utilizar Chrony, debe preinstalar Chrony. El instalador no instala Chrony durante las instalaciones de espacio de aire.
    1. Instale ntpdate para sincronizar la fecha y la hora consultando un servidor NTP.

      # apt install ntpdate -y

    2. Ejecute el siguiente comando dos veces para reducir el desplazamiento con el servidor NTP.

      # ntpdate ntp-server

    3. Instale el protocolo NTP.

      # apt install ntp -y

    4. Configure los grupos de servidores NTP.

      # vi /etc/ntp.conf

    5. Reemplace los grupos predeterminados de Ubuntu con el servidor NTP más cercano a su ubicación en el ntp.conf archivo.

      server ntp-server prefer iburst

      Guarde y salga del archivo.

    6. Reinicie el servicio NTP.

      # systemctl restart ntp

    7. Confirme que el sistema está sincronizado con el servidor NTP.

      # timedatectl

  10. (Opcional) Actualice la versión del kernel de Ubuntu LinuxPara actualizar la versión del kernel del servidor Ubuntu a la versión LTS más reciente para cumplir los requisitos de la instalación de Paragon Automation:
    1. Inicie sesión como usuario raíz.

    2. Compruebe la versión existente del kernel.

      root@server# uname -msr

      Si la versión del kernel de Linux es anterior a la 4.15, actualice el kernel.

    3. Actualizar repositorios apt:

      root@server# apt update

    4. Actualice los paquetes de software existentes, incluidas las actualizaciones del kernel:

      root@server# apt upgrade -y

      root@server# apt install --install-recommends linux-generic-hwe-xx.xx

      Aquí, xx.xx está su versión del sistema operativo Ubuntu.

    5. Reinicie el servidor para cargar el nuevo núcleo:

      root@server# reboot
    6. Verifique la nueva versión del kernel:

      root@server# uname -msr

Consideraciones sobre la dirección IP virtual

Los nodos de trabajo de Kubernetes alojan los pods que manejan la carga de trabajo de las aplicaciones.

Un pod es la unidad de computación desplegable más pequeña creada y administrada en Kubernetes. Un pod contiene uno o más contenedores, con almacenamiento compartido y recursos de red, y con instrucciones específicas sobre cómo ejecutar las aplicaciones. Los contenedores son el nivel más bajo de procesamiento y se ejecutan aplicaciones o microservicios en contenedores.

El nodo principal del clúster determina qué nodo de trabajo albergará un pod y contenedores determinados.

Todas las funciones de Paragon Automation se implementan mediante una combinación de microservicios. Debe hacer que algunos de estos microservicios sean accesibles desde fuera del clúster, ya que proporcionan servicios a usuarios finales (dispositivos administrados) y administradores. Por ejemplo, debe hacer que el servicio pceserver sea accesible para establecer sesiones de protocolo de elemento de cálculo de ruta (PCEP) entre los enrutadores perimetrales del proveedor (PE) y Paragon Automation.

Debe exponer estos servicios fuera del clúster de Kubernetes con direcciones específicas a las que se pueda acceder desde dispositivos externos. Dado que un servicio puede ejecutarse en cualquiera de los nodos de trabajo en un momento dado, debe utilizar direcciones IP virtuales (VIP) como direcciones externas. No debe utilizar la dirección de un nodo de trabajo determinado como dirección externa.

En este ejemplo:

  • Considere que el trabajador 1 es 10.1.x.3 y el trabajador 2 es 10.1.x.4.

  • IP DE SERVICIO = PCEP VIP es 10.1.x.200

  • PCC_IP es 10.1.x.100

Los servicios de Paragon Automation utilizan uno de dos métodos para exponer servicios fuera del clúster:

  • Equilibrador de carga: cada equilibrador de carga está asociado a una dirección IP específica y enruta el tráfico externo a un servicio específico del clúster. Este es el método predeterminado para muchas instalaciones de Kubernetes en la nube. El método del equilibrador de carga admite varios protocolos y varios puertos por servicio. Cada servicio tiene su propio equilibrador de carga y dirección IP.

  • Paragon Automation utiliza el equilibrador de carga MetalLB. MetalLB simula un balanceador de carga externo administrando direcciones IP virtuales en el modo de capa 2 o interactúa con enrutadores externos en el modo de capa 3. MetalLB proporciona infraestructura de equilibrio de carga al clúster de kubernetes.

    Los servicios del tipo "LoadBalancer" interactuarán con la infraestructura de equilibrio de carga de Kubernetes para asignar una dirección IP accesible externamente. Algunos servicios pueden compartir una dirección IP externa.

  • Ingress: el método de entrada actúa como un proxy para traer tráfico al clúster y, a continuación, utiliza el enrutamiento de servicios internos para enrutar el tráfico a su destino. Bajo el capó, este método también usa un servicio de equilibrador de carga para exponerse al mundo para que pueda actuar como ese proxy.

    Paragon Automation utiliza los siguientes servidores proxy de entrada:

    • Embajador
    • Nginx

Los dispositivos externos al clúster necesitan acceder a los siguientes servicios y, por lo tanto, estos servicios requieren una dirección VIP.

Tabla 1: Servicios que necesitan VIP
Descripción de la dirección VIP requerida Equilibrador/proxy de carga

Controlador de entrada

Se utiliza para acceder a la GUI de Paragon Automation a través de la Web.

Paragon Automation proporciona un servidor web común que proporciona acceso a los componentes y las aplicaciones. El acceso al servidor se administra a través del controlador de entrada de Kubernetes.

Embajador

MetalLB

Servicios de Paragon Insights

Se usa para servicios de Insights como syslog, relé DHCP y JTI.

MetalLB

Servidor PCE de Paragon Pathfinder

Se utiliza para establecer sesiones de PCEP con dispositivos en la red.

MetalLB

Proxy receptor de captura SNMP (opcional)

Usuario del proxy del receptor de captura SNMP sólo si se requiere esta funcionalidad.

MetalLB

Controlador de entrada Nginx de infraestructura

Se utiliza como proxy para el servidor de flujo de red de Paragon Pathfinder y, opcionalmente, el servidor PCE de Paragon Pathfinder.

El controlador de entrada Nginx necesita un VIP dentro del grupo de balanceadores de carga MetalLB. Esto significa que durante el proceso de instalación debe incluir esta dirección como parte de los intervalos de direcciones IP del equilibrador de carga que deberá incluir al crear el archivo de configuración.

Nginx

MetalLB

Pathfinder Netflowd

Se utiliza para el servidor de flujo de red de Paragon Pathfinder.

Netflowd puede usar Nginx como proxy, en cuyo caso no requerirá su propia dirección VIP.

MetalLB

Servidor PCEP (opcional)

Se utiliza para el servidor PCE para la autenticación MD5.

-

cRPD (Opcional)

Se utiliza para conectarse al pod BGP Monitoring Protocol (BMP) para la autenticación MD5.

-

Puertos utilizados por el Embajador:

  • Redireccionamiento HTTP 80 (TCP) a HTTPS

  • HTTPS 443 (TCP)

  • Paragon Planner 7000 (TCP)

  • DCS/NETCONF iniciado 7804 (TCP)

Figura 4: Embajador Ambassador

Puertos usados por Insights Services, el servidor de elementos de cálculo de ruta (PCE) y SNMP:

  • Servicios de información

    JTI 4000 (UDP)

    DHCP (ZTP) 67 (UDP)

    SYSLOG 514 (UDP)

    Proxy SNMP 162 (UDP)

  • Servidor PCE

    PCEP 4189 (TCP)

  • SNMP

    Receptor de captura SNMP 162 (UDP)

Figura 5: Puertos utilizados por los servicios Ports Used by Services

Puertos utilizados por el controlador Nginx:

  • NetFlow 9000 (UDP)

  • PCEP 4189 (TCP)

Uso de Nginx para PCEP

Durante el proceso de instalación, se le preguntará si desea habilitar el proxy de entrada para PCEP. Puede seleccionar desde o Nginx-Ingress como proxy del servidor del elemento de cálculo de ruta (NonePCE).

Si selecciona Nginx-Ingress como proxy, no es necesario configurar la VIP para el servidor PCE descrito en la tabla 1. En este caso, la dirección VIP para el controlador de entrada Nginx de infraestructura también se utiliza para el servidor PCE. Si elige no usar un proxy de flujo de red, la VIP para el controlador de entrada Nginx de infraestructura también se usa para flujo de red.

Nota:

El beneficio de usar Nginx es que puede usar una sola dirección IP para múltiples servicios.

Figura 6: Controlador Nginx Controller Nginx

Direcciones VIP para autenticación MD5

Puede configurar la autenticación MD5 para proteger las sesiones PCEP entre el enrutador y Paragon Pathfinder, así como para asegurarse de que el servicio BMP se empareja con el enrutador BGP-LS correcto. Paragon Automation utiliza Multus para proporcionar la interfaz secundaria en el servidor PCE y el pod BMP para el acceso directo al enrutador. Necesita las siguientes direcciones VIP en la misma subred que los nodos del clúster:

  • Dirección VIP para el servidor PCE en formato CIDR

  • Dirección VIP para cRPD en formato CIDR

El grupo de direcciones VIP del equilibrador de carga MetalLB no debe contener estas direcciones VIP.

Si elige configurar la autenticación MD5, también debe configurar la clave de autenticación y las direcciones IP virtuales en los enrutadores. También debe configurar la clave de autenticación en la interfaz de usuario de Paragon Automation.

  • MD5 en sesiones de PCEP.: configure la clave de autenticación MD5 en el enrutador y la interfaz de usuario y la dirección VIP de Paragon Automation en el enrutador.

    • Configure lo siguiente en la CLI de Junos:

      user@pcc# set protocols pcep pce pce-id authentication-key pce-md5-key

      user@pcc# set protocols pcep pce pce-id destination-ipv4-address vip-for-pce

    • Introduzca la clave de pce-md5-key autenticación en el campo MD5 String (Cadena MD5) de la sección Protocols:PCEP de la página Configuration > Devices > Edit.Device Name

    La clave de autenticación MD5 debe ser menor o igual que 79 caracteres.

  • MD5 en cRPD: determine la clave de autenticación MD5 de cRPD y configure la clave y la dirección VIP de cRPD en el router.

    1. Determine o establezca la clave de autenticación MD5 de las siguientes maneras.

      1. Ejecute el script de comandos y habilite la conf autenticación MD5 en cRPD. Busque el crpd_auth_key parámetro en el archivo config.yml . Si hay una clave presente, indica que cRPD está configurado para MD5. Por ejemplo: crpd_auth_key : northstar. Puede utilizar la clave presente en el archivo config.yml (o también puede editar la clave) e introducirla en el router.

      2. Si no hay ninguna clave de autenticación MD5 presente en el archivo config.yml , debe iniciar sesión en cRPD y establecer la clave de autenticación mediante uno de los siguientes comandos:

        set groups extra protocols bgp group name authentication-key crpd-md5-key

        o

        set protocols bgp group name authentication-key crpd-md5-key

        La clave de autenticación MD5 debe ser menor o igual que 79 caracteres.

    2. Configure el enrutador para habilitar MD5 para cRPD.

      user@pcc# set protocols bgp group name neighbor vip-for-crpd authentication-key md5-key
Nota:

Debe identificar todas las direcciones VIP necesarias antes de iniciar el proceso de instalación de Paragon Automation. Se le pedirá que introduzca estas direcciones como parte del proceso de instalación.

Configurar equilibrio de carga

Las VIP se gestionan en la capa 2 de forma predeterminada. Cuando todos los nodos del clúster se encuentran en el mismo dominio de difusión, cada dirección VIP se asigna a un nodo del clúster a la vez. El modo de capa 2 proporciona conmutación por error de la VIP y no proporciona equilibrio de carga real. Para un verdadero equilibrio de carga entre los nodos del clúster o si los nodos se encuentran en dominios de difusión diferentes, debe configurar el equilibrio de carga en la capa 3.

Debe configurar un enrutador BGP para anunciar la dirección VIP en la red. Asegúrese de que el enrutador BGP utiliza ECMP para equilibrar las sesiones TCP/IP entre diferentes hosts. Conecte el enrutador BGP directamente a los nodos del clúster.

Para configurar el equilibrio de carga en los nodos del clúster, edite el archivo config.yml . Por ejemplo:

En este ejemplo, el enrutador BGP en 192.x.x.1 es responsable de anunciar la accesibilidad de las direcciones VIP con el prefijo 10.x.x.0/24 al resto de la red. El clúster asigna la dirección VIP de este intervalo y anuncia la dirección de los nodos del clúster que pueden controlar la dirección.

Configurar el servidor DNS (opcional)

Puede tener acceso a la puerta de enlace web principal a través de la dirección VIP del controlador de entrada o mediante un nombre de host configurado en el servidor del Sistema de nombres de dominio (DNS) que se resuelve en la dirección VIP del controlador de entrada. Debe configurar el servidor DNS solo si desea utilizar un nombre de host para tener acceso a la puerta de enlace web.

Agregue el nombre de host al DNS como un registro A, AAAA o CNAME. Para configuraciones de laboratorio y prueba de concepto (POC), puede agregar el nombre de host al archivo /etc/hosts en los nodos del clúster.