Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Equilibrador de carga de tráfico

Descripción general del equilibrador de carga de tráfico

Resumen de soporte de equilibrio de carga de tráfico

En la tabla 1 se proporciona un resumen de la compatibilidad con equilibrio de carga de tráfico en las tarjetas MS-MPC y MS-MIC para Adaptive Services frente a la compatibilidad con la tarjeta de servicios de seguridad MX-SPC3 para Next Gen Services.

Tabla 1: Resumen de soporte de equilibrio de carga de tráfico

MS-MPC

MX-SPC3

Versión de Junos

< 16.1R6 y 18.2.R1

≥ 16.1R6 y 18.2R1

19,3R2

# máximo de instancias por chasis

32

2.000 / 32 en modo DSR L2

2,000

# máximo de servicios virtuales por instancia

32

32

32

# máximo de dirección IP virtual por servicio virtual

1

1

# máximo de grupos por instancias

32

32

32

Max # de servicios reales (servidores) por grupo

255

255

255

# máximo de grupos por servicio virtual

1

1

# máximo de perfiles de monitor de red por grupo

2

2

# máximo de HC por servicios de seguridad por PIC/NPU en 5 segundos

4,000

1,250 – 19.3R2

10.000 – 20,1R1

Protocolos de comprobación de estado admitidos

ICMP, TCP, UDP, HTTP, SSL, personalizado

ICMP, TCP, UDP, HTTP, SSL, TLS Hola, personalizado

Descripción de la aplicación Traffic Load Balancer

El Equilibrador de carga de tráfico (TLB) se admite en enrutadores serie MX con el concentrador de puerto modular multiservicios (MS-MPC), la tarjeta de interfaz modular multiservicios (MS-MIC) o la tarjeta de procesamiento de servicios de seguridad MX (MX-SPC3) y junto con las tarjetas de línea del concentrador de puerto modular (MPC) compatibles con los enrutadores de la serie MX, como se describe en la tabla 2.

Nota:

No puede ejecutar NAT determinista y TLB simultáneamente.

Tabla 2: Resumen de soporte de la plataforma del enrutador de la serie MX TLB

Modo TLB

Cobertura de la plataforma MX

Concentrador de puerto modular multiservicios (MS-MPC)

MX240, MX2480, MX960, MX2008, MX2010, MX2020

Tarjeta de procesamiento de servicios de seguridad MX (MX-SPC3)

MX240, MX480, MX960

  • TLB le permite distribuir el tráfico entre varios servidores.

  • TLB emplea un plano de control basado en MS-MPC y un plano de datos utilizando el motor de reenvío del enrutador de la serie MX.

  • TLB utiliza una versión mejorada de multiruta de igual costo (ECMP). El ECMP mejorado facilita la distribución de flujos entre grupos de servidores. Las mejoras al ECMP nativo garantizan que cuando los servidores fallen, solo se vean afectados los flujos asociados con esos servidores, lo que minimiza la rotación general de la red en servicios y sesiones.

  • TLB proporciona supervisión de estado basada en aplicaciones para hasta 255 servidores por grupo, proporcionando una dirección de tráfico inteligente basada en la comprobación del estado de la información de disponibilidad del servidor. Puede configurar una interfaz de multiservicios agregados (AMS) para proporcionar redundancia uno a uno para MS-MPC o la tarjeta MX-SPC3 de servicios de próxima generación que se usa para supervisar el estado del servidor.

  • TLB aplica su procesamiento de distribución de flujo al tráfico de entrada.

  • TLB admite varias instancias de enrutamiento virtual para proporcionar un soporte mejorado para los requisitos de equilibrio de carga a gran escala.

  • TLB admite la traducción estática de direcciones IP virtuales a direcciones IP reales y la traducción de puertos de destino estáticos durante el equilibrio de carga.

Modos de operación del equilibrador de carga de tráfico

El Equilibrador de carga de tráfico proporciona tres modos de operación para la distribución del tráfico saliente y para controlar el procesamiento del tráfico de retorno.

La Tabla 3 resume la compatibilidad con TLB y en qué tarjetas se admite.

Tabla 3: Resumen de TLB versus tarjetas de servicio de seguridad

Tarjeta de servicio de seguridad

MS-MPC

MX-SPC3

Traducir

Retorno directo transparente del servidor de capa 3

Retorno directo transparente del servidor de capa 2

No compatible

Modo transparente Retorno directo del servidor de capa 2

Cuando se utiliza el modo transparente, retorno directo del servidor (DSR) de capa 2:

  • El PFE procesa datos.

  • El equilibrio de carga funciona cambiando la MAC de capa 2 de los paquetes.

  • Un MS-MPC realiza las sondas de supervisión de red.

  • Los servidores reales deben ser directamente accesibles (capa 2) desde el enrutador de la serie MX.

  • TLB instala una ruta y todo el tráfico que pasa por esa ruta tiene un equilibrio de carga.

  • TLB nunca modifica los encabezados de capa 3 y de nivel superior.

La figura 1 muestra la topología TLB para DSR de capa 2 en modo transparente.

Figura 1: Topología TLB para modo TLB Topology for Transparent Mode transparente

Modo traducido

El modo traducido proporciona una mayor flexibilidad que el modo transparente DSR de capa 2. Cuando elija el modo de traducción:

  • Un MS-MPC realiza las sondas de supervisión de red.

  • El PFE realiza el equilibrio de carga sin estado:

    • El tráfico de datos dirigido a una dirección IP virtual se traduce la dirección IP virtual a una dirección IP de servidor real y traduce el puerto virtual a un puerto de escucha del servidor. El tráfico de retorno se somete a la traducción inversa.

    • Se traduce el tráfico de cliente a IP virtual; El tráfico se enruta para llegar a su destino.

    • El tráfico de servidor a cliente se captura mediante filtros implícitos y se dirige a un próximo salto adecuado de equilibrio de carga para el procesamiento inverso. Después de la traducción, el tráfico se enruta de vuelta al cliente.

    • Hay dos métodos de equilibrio de carga disponibles: aleatorio y hash. El método aleatorio es sólo para el tráfico UDP y proporciona quavms-distribución aleatoria. Aunque no es literalmente aleatorio, este modo proporciona una distribución justa del tráfico a un conjunto disponible de servidores. El método hash proporciona una clave hash basada en cualquier combinación de la dirección IP de origen, la dirección IP de destino y el protocolo.

      Nota:

      El procesamiento en modo traducido solo está disponible para el tráfico de IPv4 a IPv4 e IPv6 a IPv6.

La figura 2 muestra la topología TLB para el modo traducido.

Figura 2: Topología TLB para el modo traducido TLB Topology for Translated Mode

Modo transparente Retorno directo del servidor de capa 3

Modo transparente El equilibrio de carga de DSR de capa 3 distribuye las sesiones a servidores que pueden estar a un salto de la capa 3. El tráfico se devuelve directamente al cliente desde el servidor real.

Funciones del equilibrador de carga de tráfico

TLB proporciona las siguientes funciones:

  • TLB siempre distribuye las solicitudes para cualquier flujo. Cuando se especifica el modo DSR, la respuesta vuelve directamente al origen. Cuando se especifica el modo de traducción, el tráfico inverso se dirige a través de filtros implícitos en las interfaces orientadas al servidor.

  • TLB admite el equilibrio de carga basado en hash o el equilibrio de carga aleatorio.

  • TLB le permite configurar servidores sin conexión para evitar un impacto en el rendimiento que podría ser causado por un refrito para todos los flujos existentes. Puede agregar un servidor en estado inactivo administrativo y utilizarlo posteriormente para la distribución del tráfico deshabilitando el estado inactivo administrativo. La configuración de servidores sin conexión ayuda a evitar que el tráfico afecte a otros servidores.

  • Cuando la comprobación de estado determina que un servidor está inactivo, solo se repiten los flujos afectados.

  • Cuando un servidor previamente inactivo se devuelve al servicio, todos los flujos que pertenecen a ese servidor en función del hash vuelven a él, lo que afecta al rendimiento de los flujos devueltos. Por este motivo, puede deshabilitar la reincorporación automática de un servidor a un grupo activo. Puede devolver los servidores al servicio emitiendo el request services traffic-load-balance real-service rejoin comando operativo.

    Nota:

    NAT no se aplica a los flujos distribuidos.

  • La aplicación de monitoreo de verificación de estado se ejecuta en una MS-MPC/NPU. Esta unidad procesadora de red (NPU) no se utiliza para controlar el tráfico de datos.

  • TLB admite la traducción estática de direcciones IP virtuales y la traducción de puertos de destino estáticos durante el equilibrio de carga.

  • TLB proporciona soporte VRF múltiple.

Componentes de la aplicación del equilibrador de carga de tráfico

Servidores y grupos de servidores

TLB permite la configuración de grupos de hasta 255 servidores (denominados en las instrucciones de configuración servicios reales) para usarlos como destinos alternativos para la distribución de sesiones sin estado. Todos los servidores utilizados en grupos de servidores deben configurarse individualmente antes de asignarlos a grupos. El equilibrio de carga utiliza hash o aleatorización para la distribución de la sesión. Los usuarios pueden agregar y eliminar servidores hacia y desde la tabla de distribución de servidores TLB y también pueden cambiar el estado administrativo de un servidor.

Nota:

TLB utiliza la API del próximo salto de distribución de sesión para actualizar la tabla de distribución del servidor y recuperar estadísticas. Las aplicaciones no tienen control directo sobre la administración de la tabla de distribución del servidor. Solo pueden influir en los cambios indirectamente a través de los servicios de agregar y eliminar de la API de TLB.

Supervisión del estado del servidor: comprobación de estado única y comprobación de estado dual

TLB admite TCP, HTTP, SSL Hello, TLS Hello y sondas de comprobación de estado personalizadas para supervisar el estado de los servidores de un grupo. Puede utilizar un único tipo de sondeo para un grupo de servidores o una configuración de comprobación de estado dual que incluya dos tipos de sondeo. La función de supervisión de estado configurable reside en un MX-SPC3 o en un MS-MPC. De forma predeterminada, las solicitudes de sondeo se envían cada 5 segundos. Además, de forma predeterminada, un servidor real se declara inactivo solo después de cinco fallas consecutivas de la sonda y se declara inactivo solo después de cinco éxitos consecutivos de la sonda.

Utilice un sondeo de comprobación de estado personalizado para especificar lo siguiente:

  • Cadena esperada en la respuesta de la sonda

  • Cadena que se envía con la sonda

  • Estado del servidor que se asignará cuando se agote el tiempo de espera de la sonda (activo o inactivo)

  • Estado del servidor para asignar cuando se recibe la respuesta esperada a la sonda (arriba o abajo)

  • Protocolo: UDP o TCP

TLB proporciona adherencia a la aplicación, lo que significa que las fallas o los cambios en el servidor no afectan los flujos de tráfico a otros servidores activos. Cambiar el estado administrativo de un servidor de arriba a abajo no afecta a ningún flujo activo a los servidores restantes en la tabla de distribución de servidores. Agregar un servidor o eliminar un servidor de un grupo tiene cierto impacto en el tráfico durante un período de tiempo que depende de la configuración de los parámetros de intervalo y reintento en el perfil de supervisión.

TLB proporciona dos niveles de supervisión del estado del servidor:

  • Comprobación de estado única: un tipo de sonda se adjunta a un grupo de servidores mediante la network-monitoring-profile instrucción de configuración.

  • Comprobación de estado dual TLB (TLB-DHC): dos tipos de sondeo se asocian a un grupo de servidores mediante la network-monitoring-profile instrucción de configuración. El estado de un servidor se declara en función del resultado de dos sondeos de comprobación de estado. Los usuarios pueden configurar hasta dos perfiles de comprobación de estado por grupo de servidores. Si un grupo de servidores está configurado para la comprobación de estado dual, un servicio real se declara como UP sólo cuando ambos sondeos de comprobación de estado están simultáneamente UP; de lo contrario, se declara que un servicio real está inactivo.

Nota:

Se aplican las siguientes restricciones a las interfaces AMS usadas para la supervisión del estado del servidor:

  • Una interfaz AMS configurada en una instancia TLB utiliza sus interfaces miembro configuradas exclusivamente para la comprobación del estado de varios servidores reales configurados.

  • Las interfaces miembro utilizan la unidad 0 para casos VRF individuales, pero pueden usar unidades distintas de 1 para varios casos VRF.

  • TLB utiliza la dirección IP configurada para las interfaces miembro de AMS como dirección IP de origen para las comprobaciones de estado.

  • Las interfaces miembro deben estar en la misma instancia de enrutamiento que la interfaz utilizada para llegar a los servidores reales. Esto es obligatorio para los procedimientos de comprobación del estado del servidor TLB.

A partir de Junos OS versión 24.2R1, cuando TLS y SSL están configurados en el mismo grupo, ahora se utiliza el mecanismo OR en lugar de AND para determinar el estado del servidor real. Es decir, el servidor real se marca como UP si alguna de las sondas está funcionando. Anteriormente, el servidor real se marcaba UP solo si ambas sondas tenían éxito.

Cuando se proporciona la versión de sondeo SSL, sondea con esa versión. Cuando no se especifica la versión de SSL, el comportamiento cambia a Fallback de la versión v3 a la v2. La sonda comienza con SSLv3. Si se produce un error en la sonda SSLv3, el sistema sondea SSLv2. Anteriormente, cuando el atributo version no se proporcionaba explícitamente, el sondeo se realizaba con la versión predeterminada, v3.

Nota:

Esta mejora del comportamiento de comprobación de estado solo se aplica cuando los sondeos TLS y SSL están configurados en el mismo grupo de comprobación de estado.

Se cambia el resultado de la instancia de estadísticas de equilibrio de carga y tráfico de servicios de mostrar <inst> extensiva.

user@host# show services traffic-load-balance statistics instance <inst-name>
Nota:

La versión de la sonda SSL-hello se mueve bajo estadísticas del servidor real desde el servicio virtual cuando la versión SSL no se especifica en el perfil de comprobación de estado.

Servicios virtuales

El servicio virtual proporciona una dirección IP virtual (VIP) que está asociada al grupo de servidores al que se dirige el tráfico, según lo determinado por la distribución de sesiones aleatorias o basada en hash y la supervisión del estado del servidor. En el caso de L2 DSR y L3 DSR, la dirección especial 0.0.0.0 hace que todo el tráfico que fluye a la instancia de reenvío tenga un equilibrio de carga.

La configuración del servicio virtual incluye:

  • Modo: indica cómo se maneja el tráfico (traducido o transparente).

  • Grupo de servidores al que se distribuyen las sesiones.

  • El método de equilibrio de carga.

  • Instancia de enrutamiento y métrica de ruta.

Práctica recomendada:

Aunque puede asignar una dirección virtual de 0.0.0.0 para utilizar el enrutamiento predeterminado, se recomienda utilizar una dirección virtual que se pueda asignar a una instancia de enrutamiento configurada específicamente para TLB.

Límites de configuración del equilibrador de carga de tráfico

Los límites de configuración del equilibrador de carga de tráfico se describen en la tabla 4.

Tabla 4: Límites de configuración de TLB

Componente de configuración

Límite de configuración

Número máximo de instancias

A partir de Junos OS versión 16.1R6 y Junos OS versión 18.2R1, la aplicación TLB admite 2000 instancias TLB para servicios virtuales que utilizan el retorno directo del servidor o el modo traducido. En versiones anteriores, el número máximo de instancias es 32.

Si varios servicios virtuales utilizan el mismo grupo de servidores, todos esos servicios virtuales deben utilizar el mismo método de equilibrio de carga para admitir 2000 instancias TLB.

Para los servicios virtuales que utilizan el modo layer2-direct-server-return, TLB solo admite 32 instancias de TLB. Para realizar la misma función que el modo layer2-direct-server-return y tener compatibilidad con 2000 instancias de TLB, puede utilizar el modo direct-server-return y utilizar un filtro de servicio con la acción de omitir.

Número máximo de servidores por grupo

255

Número máximo de servicios virtuales por PIC de servicios

32

Número máximo de comprobaciones de estado por PIC de servicios en un intervalo de 5 segundos

Para tarjetas de servicios MS-MPC: 2000

Para el modo Servicios de próxima generación y las tarjetas de servicios MX-SPC3: 1250

Número máximo de grupos por servicio virtual

1

Número máximo de direcciones IP virtuales por servicio virtual

1

Protocolos de comprobación de estado admitidos

ICMP, TCP, HTTP, SSL, TLS-Hello, personalizado

Nota:

La comprobación de estado ICMP solo se admite en tarjetas de servicios MS-MPC.

A partir de la versión 22.4R1 de Junos OS, TLB se ha mejorado para admitir el tipo de comprobación de estado TLS-Hello. Para TLS-Hello a través de TCP, se admiten comprobaciones de estado de TLS v1.2 y v1.3.

Configuración de TLB

En los temas siguientes se describe cómo configurar TLB. Para crear una aplicación completa, también debe definir interfaces e información de enrutamiento. Opcionalmente, puede definir filtros de firewall y opciones de políticas para diferenciar el tráfico de TLB.

Carga del paquete de servicios TLB

Cargue el paquete de servicio TLB en cada PIC de servicio en el que desee ejecutar TLB.

Nota:

Para los servicios de próxima generación y la tarjeta de servicios MX-SPC3, no es necesario cargar este paquete.

Para cargar el paquete de servicio TLB en una PIC de servicio:

  • Cargue el jservices-traffic-dird paquete.

    Por ejemplo:

Configuración de un nombre de instancia TLB

Antes de configurar TLB, habilite el proceso de servicio sdk configurando system processes sdk-service enable en la jerarquía [edit].

Para configurar un nombre para la instancia de TLB:

  • En el nivel de [edit services traffic-load-balance] jerarquía, identifique el nombre de la instancia TLB.

    Por ejemplo:

Configuración de la interfaz y la información de enrutamiento

Para configurar la información de interfaz y enrutamiento:

  1. En el nivel de [edit services traffic-load-balance instance instance-name] jerarquía, identifique la interfaz de servicio asociada a esta instancia.

    Por ejemplo, en un MS-MPC:

    Por ejemplo, para los servicios de próxima generación en un MX-SPC3:

  2. Habilite el enrutamiento de las respuestas de paquetes de comprobación de estado desde servidores reales a la interfaz de servicio que identificó en el paso 1.

    Por ejemplo, en un MS-MPC:

    Por ejemplo, en un MX-SPC3:

  3. Especifique la interfaz de cliente para la que se define un filtro implícito para dirigir el tráfico en la dirección de avance. Esto solo es necesario para el modo traducido.

    Por ejemplo:

  4. Especifique la instancia de enrutamiento virtual que se usa para enrutar el tráfico de datos en la dirección de avance a los servidores. Esto es necesario para SLT y DSR de capa 3; es opcional para DSR de capa 2.

    Por ejemplo:

  5. Especifique la interfaz del servidor para la que se definen filtros implícitos para dirigir el tráfico de retorno al cliente.
    Nota:

    Los filtros implícitos para el tráfico de retorno no se utilizan para DSR.

    Por ejemplo:

  6. (Opcional) Especifique el filtro utilizado para omitir la comprobación de estado del tráfico devuelto.

    Por ejemplo:

  7. Especifique la instancia de enrutamiento virtual en la que desea que los datos en la dirección inversa se enruten a los clientes.

    Por ejemplo:

    Nota:

    Las instancias de enrutamiento virtual para enrutar datos en sentido inverso no se utilizan con DSR.

Configuración de servidores

Para configurar servidores para la instancia TLB:

Configure un nombre lógico y una dirección IP para cada servidor que estará disponible para la distribución del próximo salto.

Por ejemplo:

Configuración de perfiles de supervisión de red

Un perfil de supervisión de red configura un sondeo de comprobación de estado, que se asigna a un grupo de servidores al que se distribuye el tráfico de sesión.

Para configurar un perfil de supervisión de red:

  1. Configure el tipo de sonda que se utilizará para la supervisión del estado: icmp, tcp, tls-hello,httpssl-hello, o .custom
    Nota:

    icmp los sondeos solo se admiten en tarjetas MS-MPC.

    Los servicios de próxima generación y el MX-SPC3 no admiten sondas ICMP en esta versión.

    • Para una sonda ICMP:

    • Para una sonda TCP:

    • Para una sonda HTTP:

    • Para una sonda SSL:

    • Para una sonda TLS-Hello:

    • Para una sonda personalizada:

  2. Configure el intervalo para los intentos de sondeo, en segundos (de 1 a 180).

    Por ejemplo:

  3. Configure el número de reintentos de error, después de lo cual el servidor real se etiqueta como inactivo.

    Por ejemplo:

  4. Configure el número de reintentos de recuperación, que es el número de intentos de sondeo correctos tras los cuales se declara el servidor.

    Por ejemplo:

Configuración de grupos de servidores

Los grupos de servidores están formados por servidores a los que se distribuye el tráfico mediante una distribución de sesión sin estado, basada en hash y supervisión del estado del servidor.

Para configurar un grupo de servidores:

  1. Especifique los nombres de uno o más servidores reales configurados.

    Por ejemplo:

  2. Configure la instancia de enrutamiento para el grupo cuando no desee utilizar la instancia predeterminada, inet.0.

    Por ejemplo:

  3. (Opcional) Desactive la opción predeterminada que permite a un servidor volver a unirse al grupo automáticamente cuando aparece.
  4. (Opcional) Configure la unidad lógica de la interfaz de servicio de la instancia para utilizarla en la comprobación de estado.
    1. Especifique la unidad lógica.

    2. Habilite el enrutamiento de las respuestas de paquetes de comprobación de estado desde servidores reales a la interfaz.

    Por ejemplo:

  5. Configure uno o dos perfiles de supervisión de red que se usarán para supervisar el estado de los servidores de este grupo.

    Por ejemplo:

Configuración de servicios virtuales

Un servicio virtual proporciona una dirección que está asociada al grupo de servidores al que se dirige el tráfico, según lo determinado por la distribución de sesiones aleatorias o basada en hash y la supervisión del estado del servidor. Opcionalmente, puede especificar filtros e instancias de enrutamiento para dirigir el tráfico para TLB.

Para configurar un servicio virtual:

  1. En el nivel de [edit services traffic-load-balance instance instance-name] jerarquía, especifique una dirección distinta de cero para el servicio virtual.

    Por ejemplo:

  2. Especifique el grupo de servidores utilizado para este servicio virtual.

    Por ejemplo:

  3. (Opcional) Especifique una instancia de enrutamiento para el servicio virtual. Si no especifica una instancia de enrutamiento, se utilizará la instancia de enrutamiento predeterminada.

    Por ejemplo:

  4. Especifique el modo de procesamiento para el servicio virtual.

    Por ejemplo:

  5. (Opcional) Para un servicio virtual en modo traducido, habilite la adición de las direcciones IP de todos los servidores reales del grupo bajo el servicio virtual a los filtros del lado del servidor. Esto le permite configurar dos servicios virtuales con el mismo puerto de escucha y protocolo en la misma interfaz y VRF.
  6. (Opcional) Especifique una métrica de enrutamiento para el servicio virtual.

    Por ejemplo:

  7. Especifique el método utilizado para el equilibrio de carga. Puede especificar un método hash que proporcione una clave hash basada en cualquier combinación de la dirección IP de origen, la dirección IP de destino y el protocolo, o puede especificar random.

    Por ejemplo:

    o

    Nota:

    Si cambia entre el método hash y el método aleatorio para un servicio virtual, se perderán las estadísticas del servicio virtual.

  8. Para un servicio virtual en modo traducido, especifique un servicio para la traducción, incluidos un puerto virtual, un puerto de escucha de servidor y un protocolo.

    Por ejemplo:

  9. Confirme la configuración.
    Nota:

    En ausencia de una configuración de interfaz de cliente en la instancia TLB, el filtro de cliente implícito (para VIP) se adjunta al cliente-vrf configurado en la instancia de TLB. En este caso, la instancia de enrutamiento en un servicio virtual en modo de traducción no puede ser la misma que la cliente-vrf configurada en la instancia TLB. Si es así, se produce un error en la confirmación.

Configuración del seguimiento para la función de supervisión de comprobación de estado

Para configurar las opciones de seguimiento de la función de supervisión de comprobación de estado:

  1. Especifique que desea configurar las opciones de seguimiento para la función de supervisión de comprobación de estado.
  2. (Opcional) Configure el nombre del archivo utilizado para la salida de seguimiento.
  3. (Opcional) Deshabilite las capacidades de rastreo remoto.
  4. (Opcional) Configure indicadores para filtrar las operaciones que se van a registrar.

    En la Tabla 5 se describen los indicadores que puede incluir.

    Tabla 5: Indicadores de rastreo

    Bandera

    Soporte en tarjetas MS-MPC y MX-SPC3

    Descripción

    todo

    MS-MPC y MX-SPC3

    Realice un seguimiento de todas las operaciones.

    Todos los servicios reales

    MX-SPC3

    Rastree todos los servicios reales.

    config

    MS-MPC y MX-SPC3

    Rastrear eventos de configuración del equilibrador de carga de tráfico.

    conectar

    MS-MPC y MX-SPC3

    Seguimiento de eventos ipc del equilibrador de carga de tráfico.

    base de datos

    MS-MPC y MX-SPC3

    Realizar un seguimiento de los eventos de la base de datos.

    file-descriptor-queue

    MS-MPC

    Rastrear eventos de cola del descriptor de archivos.

    entre subprocesos

    MS-MPC

    Realice un seguimiento de los eventos de comunicación entre subprocesos.

    filtro

    MS-MPC y MX-SPC3

    Seguimiento de eventos de programación del equilibrador de carga de tráfico.

    Salud

    MS-MPC y MX-SPC3

    Rastrear eventos de estado del equilibrador de carga de tráfico.

    Mensajes

    MS-MPC y MX-SPC3

    Realizar un seguimiento de eventos normales.

    normal

    MS-MPC y MX-SPC3

    Realizar un seguimiento de eventos normales.

    comandos operativos

    MS-MPC y MX-SPC3

    El equilibrador de carga de tráfico de seguimiento muestra eventos.

    analizar

    MS-MPC y MX-SPC3

    Rastrear eventos de análisis del equilibrador de carga de tráfico.

    sonda

    MS-MPC y MX-SPC3

    Realizar un seguimiento de los eventos de sondeo.

    sonda-infra

    MS-MPC y MX-SPC3

    Rastrear eventos infra de sondeo.

    ruta

    MS-MPC y MX-SPC3

    Rastrear eventos de ruta del equilibrador de carga de tráfico.

    Snmp

    MS-MPC y MX-SPC3

    Rastrear eventos SNMP del equilibrador de carga de tráfico.

    estadística

    MS-MPC y MX-SPC3

    Rastrear eventos estadísticos del equilibrador de carga de tráfico.

    sistema

    MS-MPC y MX-SPC3

    Seguimiento de eventos del sistema del equilibrador de carga de tráfico.

  5. (Opcional) Configure el nivel de seguimiento.
  6. (Opcional) Configure el seguimiento para un servidor real concreto dentro de un grupo de servidores determinado.
  7. (Opcional) A partir de Junos OS versión 16.1R6 y 18.2R1, configure el seguimiento para un servicio virtual y una instancia determinados.

Tabla de historial de cambios

La compatibilidad con las funciones viene determinada por la plataforma y la versión que esté utilizando. Utilice el Explorador de características para determinar si una característica es compatible con su plataforma.

Lanzamiento
Descripción
16.1R6
A partir de Junos OS versión 16.1R6 y Junos OS versión 18.2R1, la aplicación TLB admite 2000 instancias TLB para servicios virtuales que utilizan el retorno directo del servidor o el modo traducido.
16.1R6
A partir de Junos OS versión 16.1R6 y 18.2R1, configure el seguimiento para una instancia y un servicio virtual determinados.