Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Equilibrador de carga de tráfico

Descripción general del equilibrador de carga de tráfico

Resumen de la compatibilidad con el equilibrio de carga de tráfico

En la tabla 1 se proporciona un resumen de la compatibilidad con el equilibrio de carga de tráfico en las tarjetas MS-MPC y MS-MIC para servicios adaptativos versus la compatibilidad con la tarjeta de servicios de seguridad MX-SPC3 para servicios de próxima generación.

Tabla 1: Resumen de la compatibilidad con el equilibrio de carga de tráfico

MS-MPC

MX-SPC3

Versión de Junos

< 16.1R6 y 18.2.R1

≥ 16.1R6 y 18.2R1

19.3R2

Máx. # de instancias por chasis

32

2.000 / 32 en modo DSR L2

2,000

Max # de servicios virtuales por instancia

32

32

32

Máx. # de dirección IP virtual por servicio virtual

1

1

Max # de grupos por instancias

32

32

32

Max # de servicios reales (servidores) por grupo

255

255

255

Máx. # de grupos por servicio virtual

1

1

Max # de perfiles de monitor de red por grupo

2

2

Máx. # de HC por servicios de seguridad por PIC/NPU en 5 segundos

4,000

1,250 – 19.3R2

10.000 – 20.1R1

Protocolos de comprobación de estado admitidos

ICMP, TCP, UDP, HTTP, SSL, personalizado

ICMP, TCP, UDP, HTTP, SSL, TLS Hola, personalizado

Descripción de la aplicación del equilibrador de carga de tráfico

El equilibrador de carga de tráfico (TLB) se admite en enrutadores de la serie MX con el concentrador de puerto modular multiservicios (MS-MPC), la tarjeta de interfaz modular multiservicios (MS-MIC) o la tarjeta de procesamiento de servicios de seguridad MX (MX-SPC3) y junto con las tarjetas de línea de concentrador de puerto modular (MPC) compatibles con los enrutadores de la serie MX, como se describe en la tabla 2.

Nota:

No puede ejecutar TDR determinista y TLB simultáneamente.

Tabla 2: Resumen de la compatibilidad de la plataforma del enrutador de la serie MX de TLB

Modo TLB

Cobertura de la plataforma MX

Concentrador de puerto modular multiservicio (MS-MPC)

MX240, MX2480, MX960, MX2008, MX2010, MX2020

Tarjeta de procesamiento de servicios de seguridad MX (MX-SPC3)

MX240, MX480, MX960

  • TLB le permite distribuir el tráfico entre varios servidores.

  • TLB emplea un plano de control basado en MS-MPC y un plano de datos mediante el motor de reenvío de enrutadores de la serie MX.

  • TLB utiliza una versión mejorada de la multirruta de igual costo (ECMP). El ECMP mejorado facilita la distribución de flujos entre grupos de servidores. Las mejoras en el ECMP nativo garantizan que, cuando los servidores fallen, solo se vean afectados los flujos asociados con esos servidores, lo que minimiza la rotación general de la red en los servicios y sesiones.

  • TLB proporciona monitoreo de estado basado en aplicaciones para hasta 255 servidores por grupo, lo que proporciona una dirección de tráfico inteligente basada en la verificación de estado de la información de disponibilidad del servidor. Puede configurar una interfaz de multiservicios agregada (AMS) para proporcionar redundancia uno a uno para MS-MPC o servicios de próxima generación. Tarjeta MX-SPC3 utilizada para la supervisión del estado del servidor.

  • TLB aplica su procesamiento de distribución de flujo al tráfico de entrada.

  • TLB admite múltiples instancias de enrutamiento virtual para proporcionar un soporte mejorado para los requisitos de equilibrio de carga a gran escala.

  • TLB admite la traducción de direcciones IP virtuales estáticas a direcciones IP reales y la traducción de puertos de destino estáticos durante el equilibrio de carga.

Modos de operación del equilibrador de carga de tráfico

El Equilibrador de carga de tráfico proporciona tres modos de operación para la distribución del tráfico saliente y para manejar el procesamiento del tráfico de retorno.

La Tabla 3 resume la compatibilidad con TLB y en qué tarjetas es compatible.

Tabla 3: Resumen de TLB versus tarjetas de servicio de seguridad

Tarjeta de servicio de seguridad

MS-MPC

MX-SPC3

Traducir

Retorno directo del servidor transparente de capa 3

Retorno directo del servidor transparente de capa 2

No compatible

Modo transparente Retorno directo del servidor de capa 2

Cuando se utiliza el modo transparente, retorno directo del servidor (DSR) de capa 2:

  • La PFE procesa datos.

  • El equilibrio de carga funciona cambiando la MAC de capa 2 de los paquetes.

  • Una MS-MPC realiza los sondeos de monitoreo de red.

  • Los servidores reales deben ser accesibles directamente (capa 2) desde el enrutador de la serie MX.

  • TLB instala una ruta y todo el tráfico a través de esa ruta tiene un equilibrio de carga.

  • TLB nunca modifica los encabezados de capa 3 y de nivel superior.

La Figura 1 muestra la topología TLB para DSR de capa 2 en modo transparente.

Figura 1: Topología TLB para el modo TLB Topology for Transparent Mode transparente

Modo traducido

El modo traducido proporciona una mayor flexibilidad que el DSR de capa 2 en el modo transparente. Cuando elija el modo traducido:

  • Una MS-MPC realiza los sondeos de monitoreo de red.

  • El PFE realiza un equilibrio de carga sin estado:

    • El tráfico de datos dirigido a una dirección IP virtual se traduce de la dirección IP virtual a una dirección IP del servidor real y traduce el puerto virtual a un puerto de escucha del servidor. El tráfico de retorno se somete a la traducción inversa.

    • El tráfico del cliente a IP virtual se traduce; El tráfico se enruta para llegar a su destino.

    • El tráfico de servidor a cliente se captura mediante filtros implícitos y se dirige a un próximo salto de equilibrio de carga adecuado para el procesamiento inverso. Después de la traducción, el tráfico se enruta de vuelta al cliente.

    • Hay dos métodos de equilibrio de carga disponibles: aleatorio y hash. El método aleatorio es solo para el tráfico UDP y proporciona una distribución aleatoria de quavms. Aunque no es literalmente aleatorio, este modo proporciona una distribución justa del tráfico a un conjunto disponible de servidores. El método hash proporciona una clave hash basada en cualquier combinación de la dirección IP de origen, la dirección IP de destino y el protocolo.

      Nota:

      El procesamiento del modo traducido solo está disponible para el tráfico de IPv4 a IPv4 e IPv6 a IPv6.

La Figura 2 muestra la topología TLB para el modo traducido.

Figura 2: Topología TLB para el modo TLB Topology for Translated Mode traducido

Modo transparente Capa 3 Retorno directo del servidor

Modo transparente El equilibrio de carga DSR de capa 3 distribuye las sesiones a servidores que pueden estar a un salto de capa 3. El tráfico se devuelve directamente al cliente desde el servidor real.

Funciones del equilibrador de carga de tráfico

TLB proporciona las siguientes funciones:

  • TLB siempre distribuye las solicitudes para cualquier flujo. Cuando se especifica el modo DSR, la respuesta vuelve directamente al origen. Cuando se especifica el modo traducido, el tráfico inverso se dirige a través de filtros implícitos en las interfaces orientadas al servidor.

  • TLB admite el equilibrio de carga basado en hash o el equilibrio de carga aleatorio.

  • TLB le permite configurar servidores fuera de línea para evitar un impacto en el rendimiento que podría ser causado por un rehash para todos los flujos existentes. Puede agregar un servidor en el estado administrativo inactivo y usarlo más tarde para la distribución del tráfico deshabilitando el estado administrativo inactivo. Configurar servidores sin conexión ayuda a prevenir el impacto del tráfico a otros servidores.

  • Cuando la comprobación de estado determina que un servidor está inactivo, solo se repiten los flujos afectados.

  • Cuando un servidor previamente inactivo vuelve al servicio, todos los flujos que pertenecen a ese servidor en función del hash vuelven a él, lo que afecta al rendimiento de los flujos devueltos. Por esta razón, puede deshabilitar la reincorporación automática de un servidor a un grupo activo. Puede devolver los servidores al servicio emitiendo el request services traffic-load-balance real-service rejoin comando operativo.

    Nota:

    TDR no se aplica a los flujos distribuidos.

  • La aplicación de monitoreo de chequeos de estado se ejecuta en una MS-MPC/NPU. Esta unidad de procesador de red (NPU) no se utiliza para controlar el tráfico de datos.

  • TLB admite la traducción estática de direcciones IP virtuales y la traducción de puertos de destino estáticos durante el equilibrio de carga.

  • TLB proporciona soporte VRF múltiple.

Componentes de la aplicación del equilibrador de carga de tráfico

Servidores y grupos de servidores

TLB permite la configuración de grupos de hasta 255 servidores (denominados en las instrucciones de configuración como servicios reales) para su uso como destinos alternativos para la distribución de sesiones sin estado. Todos los servidores utilizados en grupos de servidores deben configurarse individualmente antes de asignarlos a grupos. El equilibrio de carga utiliza hash o aleatorización para la distribución de sesiones. Los usuarios pueden agregar y eliminar servidores hacia y desde la tabla de distribución de servidores TLB y también pueden cambiar el estado administrativo de un servidor.

Nota:

TLB utiliza la API de próximo salto de distribución de sesión para actualizar la tabla de distribución del servidor y recuperar estadísticas. Las aplicaciones no tienen control directo sobre la administración de la tabla de distribución del servidor. Solo pueden influir en los cambios indirectamente a través de los servicios de agregar y eliminar de la API de TLB.

Supervisión del estado del servidor: comprobación de estado única y doble comprobación de estado

TLB admite TCP, HTTP, SSL Hello, TLS Hello y sondeos de comprobación de estado personalizados para supervisar el estado de los servidores de un grupo. Puede usar un solo tipo de sonda para un grupo de servidores o una configuración de comprobación de estado dual que incluya dos tipos de sonda. La función de supervisión de estado configurable reside en una MX-SPC3 o MS-MPC. De forma predeterminada, las solicitudes de sondeo se envían cada 5 segundos. Además, de forma predeterminada, un servidor real se declara inactivo solo después de cinco fallas consecutivas del sondeo y se declara activo solo después de cinco éxitos consecutivos del sondeo.

Utilice un sondeo de comprobación de estado personalizado para especificar lo siguiente:

  • Cadena esperada en la respuesta del sondeo

  • Cadena que se envía con el sondeo

  • Estado del servidor que se asignará cuando se agote el tiempo de espera de la sonda (activo o inactivo)

  • Estado del servidor que se asignará cuando se recibe la respuesta esperada al sondeo (arriba o abajo)

  • Protocolo: UDP o TCP

TLB proporciona adherencia a la aplicación, lo que significa que las fallas o cambios del servidor no afectan los flujos de tráfico a otros servidores activos. Cambiar el estado administrativo de un servidor de arriba a abajo no afecta a ningún flujo activo a los servidores restantes en la tabla de distribución de servidores. Agregar un servidor o eliminar un servidor de un grupo tiene cierto impacto en el tráfico durante un período de tiempo que depende de la configuración del intervalo y de los parámetros de reintento en el perfil de supervisión.

TLB proporciona dos niveles de supervisión de la salud del servidor:

  • Comprobación de estado única: un tipo de sonda se asocia a un grupo de servidores mediante la network-monitoring-profile instrucción de configuración.

  • Comprobación de estado dual de TLB (TLB-DHC): dos tipos de sonda se asocian con un grupo de servidores por medio de la network-monitoring-profile instrucción de configuración. El estado de un servidor se declara en función del resultado de dos sondeos de comprobación de estado. Los usuarios pueden configurar hasta dos perfiles de comprobación de estado por grupo de servidores. Si un grupo de servidores está configurado para una comprobación de estado dual, un servicio real se declara activo solo cuando ambos sondeos de comprobación de estado están simultáneamente activos; de lo contrario, un servicio real se declara INACTIVO.

Nota:

Las siguientes restricciones se aplican a las interfaces AMS usadas para la supervisión del estado del servidor:

  • Una interfaz AMS configurada en una instancia TLB utiliza sus interfaces miembro configuradas exclusivamente para comprobar el estado de varios servidores reales configurados.

  • Las interfaces miembro utilizan la unidad 0 para casos VRF únicos, pero pueden usar unidades distintas de 1 para casos VRF múltiples.

  • TLB utiliza la dirección IP configurada para las interfaces miembro de AMS como dirección IP de origen para las comprobaciones de estado.

  • Las interfaces miembro deben estar en la misma instancia de enrutamiento que la interfaz utilizada para llegar a los servidores reales. Esto es obligatorio para los procedimientos de comprobación del estado del servidor TLB.

A partir de Junos OS versión 24.2R1, cuando TLS y SSL están configurados en el mismo grupo, el mecanismo OR se utiliza ahora en lugar de AND para determinar el estado del servidor real. Es decir, el servidor real se marca como UP si alguna de las sondas está funcionando. Anteriormente, el servidor real solo se marcaba como UP si ambos sondeos se realizaban correctamente.

Cuando se proporciona la versión de sondeo SSL, sondea con esa versión. Cuando no se especifica la versión de SSL, el comportamiento cambia a Reserva de la versión v3 a v2. La sonda comienza con SSLv3. Si se produce un error en el sondeo SSLv3, el sistema sondea SSLv2. Anteriormente, cuando el atributo version no se proporcionaba explícitamente, el sondeo se realizaba con la versión predeterminada, v3.

Nota:

Esta mejora del comportamiento de comprobación de estado solo se aplica cuando los sondeos TLS y SSL están configurados en el mismo grupo de comprobación de estado.

Se cambia el resultado de mostrar servicios de estadísticas de equilibrio de carga de tráfico <inst> extensivo.

user@host# show services traffic-load-balance statistics instance <inst-name>
Nota:

La versión de la sonda SSL-hello se mueve bajo estadísticas de servidor reales desde el servicio virtual cuando no se especifica la versión SSL en el perfil de comprobación de estado.

Servicios virtuales

El servicio virtual proporciona una dirección IP virtual (VIP) que está asociada con el grupo de servidores al que se dirige el tráfico, según lo determinado por la distribución de sesiones aleatorias o basadas en hash y la supervisión del estado del servidor. En el caso de DSR L2 y DSR L3, la dirección especial 0.0.0.0 hace que se equilibre la carga de todo el tráfico que fluye a la instancia de reenvío.

La configuración del servicio virtual incluye:

  • Modo: indica cómo se gestiona el tráfico (traducido o transparente).

  • El grupo de servidores al que se distribuyen las sesiones.

  • El método de equilibrio de carga.

  • Instancia de enrutamiento y métrica de ruta.

Práctica recomendada:

Aunque puede asignar una dirección virtual de 0.0.0.0 para utilizar el enrutamiento predeterminado, le recomendamos que utilice una dirección virtual que se pueda asignar a una instancia de enrutamiento configurada específicamente para TLB.

Límites de configuración del equilibrador de carga de tráfico

Los límites de configuración del equilibrador de carga de tráfico se describen en la tabla 4.

Tabla 4: Límites de configuración de TLB

Componente de configuración

Límite de configuración

Número máximo de instancias

A partir de Junos OS versión 16.1R6 y Junos OS versión 18.2R1, la aplicación TLB admite 2000 instancias TLB para servicios virtuales que utilizan el modo direct-server-return o el modo traducido. En versiones anteriores, el número máximo de instancias es 32.

Si varios servicios virtuales utilizan el mismo grupo de servidores, todos esos servicios virtuales deben utilizar el mismo método de equilibrio de carga para admitir instancias de 2000 TLB.

Para los servicios virtuales que utilizan el modo layer2-direct-server-return, TLB solo admite 32 instancias de TLB. Para realizar la misma función que el modo layer2-direct-server-return y tener compatibilidad con 2000 instancias TLB, puede utilizar el modo direct-server-return y utilizar un filtro de servicio con la acción de omitir.

Número máximo de servidores por grupo

255

Número máximo de servicios virtuales por PIC de servicios

32

Número máximo de comprobaciones de estado por PIC de servicios en un intervalo de 5 segundos

Para tarjetas de servicios MS-MPC: 2000

Para el modo de servicios de próxima generación y las tarjetas de servicios MX-SPC3: 1250

Número máximo de grupos por servicio virtual

1

Número máximo de direcciones IP virtuales por servicio virtual

1

Protocolos de comprobación de estado compatibles

ICMP, TCP, HTTP, SSL, TLS-Hello, personalizado

Nota:

La comprobación de estado ICMP solo se admite en tarjetas de servicios MS-MPC.

A partir de la versión 22.4R1 de Junos OS, TLB se ha mejorado para admitir el tipo de comprobación de estado TLS-Hello. Para TLS-Hello sobre TCP, se admiten las comprobaciones de estado de TLS v1.2 y v1.3.

Configurar TLB

En los temas siguientes se describe cómo configurar TLB. Para crear una aplicación completa, también debe definir interfaces e información de enrutamiento. Opcionalmente, puede definir filtros de firewall y opciones de políticas para diferenciar el tráfico TLB.

Cargando el paquete de servicio TLB

Cargue el paquete de servicio TLB en cada PIC de servicio en el que desee ejecutar TLB.

Nota:

Para los servicios de próxima generación y la tarjeta de servicios MX-SPC3, no es necesario cargar este paquete.

Para cargar el paquete de servicio TLB en una PIC de servicio:

  • Cargue el jservices-traffic-dird paquete.

    Por ejemplo:

Configuración de un nombre de instancia TLB

Antes de configurar TLB, habilite el proceso sdk-service configurándolo system processes sdk-service enable en la jerarquía [edit].

Para configurar un nombre para la instancia de TLB:

  • En el nivel de [edit services traffic-load-balance] jerarquía, identifique el nombre de instancia de TLB.

    Por ejemplo:

Configuración de la información de interfaz y enrutamiento

Para configurar la información de interfaz y enrutamiento:

  1. En el nivel jerárquico [edit services traffic-load-balance instance instance-name] , identifique la interfaz de servicio asociada con esta instancia.

    Por ejemplo, en una MS-MPC:

    Por ejemplo, para los servicios de próxima generación en un MX-SPC3:

  2. Habilite el enrutamiento de respuestas de paquetes de comprobación de estado desde servidores reales a la interfaz de servicio que identificó en el paso 1.

    Por ejemplo, en una MS-MPC:

    Por ejemplo, en una MX-SPC3:

  3. Especifique la interfaz de cliente para la cual se ha definido un filtro implícito para dirigir el tráfico en la dirección de avance. Esto solo es necesario para el modo traducido.

    Por ejemplo:

  4. Especifique la instancia de enrutamiento virtual utilizada para enrutar el tráfico de datos en la dirección de reenvío a los servidores. Esto es necesario para SLT y DSR de capa 3; es opcional para la DSR de capa 2.

    Por ejemplo:

  5. Especifique la interfaz de servidor para la que se definen los filtros implícitos para dirigir el tráfico de retorno al cliente.
    Nota:

    Los filtros implícitos para el tráfico de retorno no se usan para DSR.

    Por ejemplo:

  6. (Opcional) Especifique el filtro utilizado para omitir la comprobación de estado del tráfico de retorno.

    Por ejemplo:

  7. Especifique la instancia de enrutamiento virtual en la que desea que los datos en la dirección inversa se enruten a los clientes.

    Por ejemplo:

    Nota:

    Las instancias virtuales de enrutamiento para enrutar datos en la dirección inversa no se usan con DSR.

Configuración de servidores

Para configurar servidores para la instancia de TLB:

Configure un nombre lógico y una dirección IP para cada servidor que estará disponible para la distribución del próximo salto.

Por ejemplo:

Configuración de perfiles de monitoreo de red

Un perfil de supervisión de red configura una sonda de comprobación de estado, la cual se asigna a un grupo de servidores al que se distribuye el tráfico de sesión.

Para configurar un perfil de supervisión de red:

  1. Configure el tipo de sonda que se utilizará para la supervisión de estado: icmp, tcp, http, ssl-hellotls-hello,o .custom
    Nota:

    icmp las sondas solo se admiten en tarjetas MS-MPC.

    Los servicios de próxima generación y MX-SPC3 no admiten sondas ICMP en esta versión.

    • Para una sonda ICMP:

    • Para una sonda TCP:

    • Para un sondeo HTTP:

    • Para una sonda SSL:

    • Para una sonda TLS-Hello:

    • Para una sonda personalizada:

  2. Configure el intervalo para los intentos de sondeo en segundos (de 1 a 180).

    Por ejemplo:

  3. Configure el número de reintentos de error, después de lo cual el servidor real se etiqueta como inactivo.

    Por ejemplo:

  4. Configure el número de reintentos de recuperación, que es el número de intentos de sondeo correctos después de los cuales se declara activo el servidor.

    Por ejemplo:

Configuración de grupos de servidores

Los grupos de servidores están formados por servidores a los que se distribuye el tráfico mediante la distribución de sesiones sin estado basada en hash y la supervisión del estado del servidor.

Para configurar un grupo de servidores:

  1. Especifique los nombres de uno o más servidores reales configurados.

    Por ejemplo:

  2. Configure la instancia de enrutamiento para el grupo cuando no desee utilizar la instancia predeterminada, inet.0.

    Por ejemplo:

  3. (Opcional) Deshabilite la opción predeterminada que permite que un servidor vuelva a unirse al grupo automáticamente cuando aparece.
  4. (Opcional) Configure la unidad lógica de la interfaz de servicio de la instancia que se utilizará para la comprobación del estado.
    1. Especifique la unidad lógica.

    2. Habilite el enrutamiento de respuestas de paquetes de comprobación de estado desde servidores reales a la interfaz.

    Por ejemplo:

  5. Configure uno o dos perfiles de supervisión de red que se utilizarán para supervisar el estado de los servidores de este grupo.

    Por ejemplo:

Configuración de servicios virtuales

Un servicio virtual proporciona una dirección asociada a un grupo de servidores al que se dirige el tráfico, según lo determinado por la distribución de sesiones aleatorias o basadas en hash y la supervisión del estado del servidor. Opcionalmente, puede especificar filtros e instancias de enrutamiento para dirigir el tráfico para TLB.

Para configurar un servicio virtual:

  1. En el [edit services traffic-load-balance instance instance-name] nivel de jerarquía, especifique una dirección distinta de cero para el servicio virtual.

    Por ejemplo:

  2. Especifique el grupo de servidores utilizado para este servicio virtual.

    Por ejemplo:

  3. (Opcional) Especifique una instancia de enrutamiento para el servicio virtual. Si no especifica una instancia de enrutamiento, se utilizará la instancia de enrutamiento predeterminada.

    Por ejemplo:

  4. Especifique el modo de procesamiento para el servicio virtual.

    Por ejemplo:

  5. (Opcional) Para un servicio virtual en modo traducido, habilite la adición de las direcciones IP de todos los servidores reales del grupo bajo el servicio virtual a los filtros del lado del servidor. Esto permite configurar dos servicios virtuales con el mismo protocolo y puerto de escucha en la misma interfaz y VRF.
  6. (Opcional) Especifique una métrica de enrutamiento para el servicio virtual.

    Por ejemplo:

  7. Especifique el método utilizado para el equilibrio de carga. Puede especificar un método hash que proporcione una clave hash basada en cualquier combinación de la dirección IP de origen, la dirección IP de destino y el protocolo, o puede especificar random.

    Por ejemplo:

    o bien

    Nota:

    Si cambia entre el método hash y el método aleatorio para un servicio virtual, se pierden las estadísticas del servicio virtual.

  8. Para un servicio virtual en modo traducido, especifique un servicio para la traducción, incluido un puerto virtual, un puerto de escucha del servidor y un protocolo.

    Por ejemplo:

  9. Confirmar la configuración.
    Nota:

    En ausencia de una configuración de interfaz de cliente en la instancia TLB, el filtro de cliente implícito (para VIP) se adjunta al vrf cliente configurado en la instancia TLB. En este caso, la instancia de enrutamiento en un servicio virtual en modo de traducción no puede ser la misma que el vrf cliente configurado en la instancia de TLB. Si es así, se produce un error en la confirmación.

Configuración del seguimiento para la función de supervisión de comprobación de estado

Para configurar las opciones de seguimiento para la función de supervisión de comprobación de estado:

  1. Especifique que desea configurar las opciones de rastreo para la función de supervisión de comprobación de estado.
  2. (Opcional) Configure el nombre del archivo utilizado para la salida de rastreo.
  3. (Opcional) Desactive las capacidades de rastreo remoto.
  4. (Opcional) Configure indicadores para filtrar las operaciones que se van a registrar.

    En la tabla 5 se describen las marcas que puede incluir.

    Tabla 5: Marcas de rastreo

    Bandera

    Compatibilidad con tarjetas MS-MPC y MX-SPC3

    Descripción

    todo

    MS-MPC y MX-SPC3

    Rastree todas las operaciones.

    servicios reales

    MX-SPC3

    Rastree todos los servicios reales.

    configurar

    MS-MPC y MX-SPC3

    Rastree los eventos de configuración del equilibrador de carga de tráfico.

    Conectar

    MS-MPC y MX-SPC3

    Rastree los eventos de IPC del equilibrador de carga de tráfico.

    Base de datos

    MS-MPC y MX-SPC3

    Rastree los eventos de la base de datos.

    cola descriptor-descriptor de archivo

    MS-MPC

    Rastree los eventos de la cola del descriptor de archivos.

    entre subprocesos

    MS-MPC

    Rastree los eventos de comunicación entre subprocesos.

    Filtro

    MS-MPC y MX-SPC3

    Rastree los eventos de programación del filtro del equilibrador de carga de tráfico.

    Salud

    MS-MPC y MX-SPC3

    Eventos de estado del equilibrador de carga de tráfico de seguimiento.

    mensajes

    MS-MPC y MX-SPC3

    Rastree eventos normales.

    normal

    MS-MPC y MX-SPC3

    Rastree eventos normales.

    comandos operativos

    MS-MPC y MX-SPC3

    Rastree el balanceador de carga de tráfico mostrar eventos.

    analizar

    MS-MPC y MX-SPC3

    Rastrea los eventos de análisis del equilibrador de carga del tráfico.

    sonda

    MS-MPC y MX-SPC3

    Rastree eventos de sondeo.

    sonda infra

    MS-MPC y MX-SPC3

    Rastrear sondeo infra eventos.

    Ruta

    MS-MPC y MX-SPC3

    Rastree los eventos de ruta del equilibrador de carga de tráfico.

    SNMP

    MS-MPC y MX-SPC3

    Rastree los eventos SNMP del equilibrador de carga de tráfico.

    Estadísticas

    MS-MPC y MX-SPC3

    Rastree eventos de estadísticas del equilibrador de carga de tráfico.

    sistema

    MS-MPC y MX-SPC3

    Rastree los eventos del sistema del equilibrador de carga de tráfico.

  5. (Opcional) Configure el nivel de seguimiento.
  6. (Opcional) Configure el rastreo para un servidor real determinado dentro de un grupo de servidores determinado.
  7. (Opcional) A partir de las versiones 16.1R6 y 18.2R1 de Junos OS, configure el seguimiento para una instancia y un servicio virtual determinados.

Tabla de historial de cambios

La compatibilidad de la función depende de la plataforma y la versión que utilice. Utilice el Explorador de características para determinar si una característica es compatible con su plataforma.

Lanzamiento
Descripción
16.1R6
A partir de Junos OS versión 16.1R6 y Junos OS versión 18.2R1, la aplicación TLB admite 2000 instancias TLB para servicios virtuales que utilizan el modo direct-server-return o el modo traducido.
16.1R6
A partir de Junos OS versión 16.1R6 y 18.2R1, configure el seguimiento para una instancia y un servicio virtual determinados.