Equilibrador de carga de tráfico
Descripción general del equilibrador de carga de tráfico
- Resumen de la compatibilidad con el equilibrio de carga de tráfico
- Descripción de la aplicación del equilibrador de carga de tráfico
- Modos de operación del equilibrador de carga de tráfico
- Funciones del equilibrador de carga de tráfico
- Componentes de la aplicación del equilibrador de carga de tráfico
- Límites de configuración del equilibrador de carga de tráfico
Resumen de la compatibilidad con el equilibrio de carga de tráfico
En la tabla 1 se proporciona un resumen de la compatibilidad con el equilibrio de carga de tráfico en las tarjetas MS-MPC y MS-MIC para servicios adaptativos versus la compatibilidad con la tarjeta de servicios de seguridad MX-SPC3 para servicios de próxima generación.
MS-MPC |
MX-SPC3 |
||
|---|---|---|---|
Versión de Junos |
< 16.1R6 y 18.2.R1 |
≥ 16.1R6 y 18.2R1 |
19.3R2 |
Máx. # de instancias por chasis |
32 |
2.000 / 32 en modo DSR L2 |
2,000 |
Max # de servicios virtuales por instancia |
32 |
32 |
32 |
Máx. # de dirección IP virtual por servicio virtual |
1 |
1 |
|
Max # de grupos por instancias |
32 |
32 |
32 |
Max # de servicios reales (servidores) por grupo |
255 |
255 |
255 |
Máx. # de grupos por servicio virtual |
1 |
1 |
|
Max # de perfiles de monitor de red por grupo |
2 |
2 |
|
Máx. # de HC por servicios de seguridad por PIC/NPU en 5 segundos |
4,000 |
1,250 – 19.3R2 10.000 – 20.1R1 |
|
Protocolos de comprobación de estado admitidos |
ICMP, TCP, UDP, HTTP, SSL, personalizado |
ICMP, TCP, UDP, HTTP, SSL, TLS Hola, personalizado |
|
Descripción de la aplicación del equilibrador de carga de tráfico
El equilibrador de carga de tráfico (TLB) se admite en enrutadores de la serie MX con el concentrador de puerto modular multiservicios (MS-MPC), la tarjeta de interfaz modular multiservicios (MS-MIC) o la tarjeta de procesamiento de servicios de seguridad MX (MX-SPC3) y junto con las tarjetas de línea de concentrador de puerto modular (MPC) compatibles con los enrutadores de la serie MX, como se describe en la tabla 2.
No puede ejecutar TDR determinista y TLB simultáneamente.
Modo TLB |
Cobertura de la plataforma MX |
|---|---|
Concentrador de puerto modular multiservicio (MS-MPC) |
MX240, MX2480, MX960, MX2008, MX2010, MX2020 |
Tarjeta de procesamiento de servicios de seguridad MX (MX-SPC3) |
MX240, MX480, MX960 |
TLB le permite distribuir el tráfico entre varios servidores.
TLB emplea un plano de control basado en MS-MPC y un plano de datos mediante el motor de reenvío de enrutadores de la serie MX.
TLB utiliza una versión mejorada de la multirruta de igual costo (ECMP). El ECMP mejorado facilita la distribución de flujos entre grupos de servidores. Las mejoras en el ECMP nativo garantizan que, cuando los servidores fallen, solo se vean afectados los flujos asociados con esos servidores, lo que minimiza la rotación general de la red en los servicios y sesiones.
TLB proporciona monitoreo de estado basado en aplicaciones para hasta 255 servidores por grupo, lo que proporciona una dirección de tráfico inteligente basada en la verificación de estado de la información de disponibilidad del servidor. Puede configurar una interfaz de multiservicios agregada (AMS) para proporcionar redundancia uno a uno para MS-MPC o servicios de próxima generación. Tarjeta MX-SPC3 utilizada para la supervisión del estado del servidor.
TLB aplica su procesamiento de distribución de flujo al tráfico de entrada.
TLB admite múltiples instancias de enrutamiento virtual para proporcionar un soporte mejorado para los requisitos de equilibrio de carga a gran escala.
TLB admite la traducción de direcciones IP virtuales estáticas a direcciones IP reales y la traducción de puertos de destino estáticos durante el equilibrio de carga.
Modos de operación del equilibrador de carga de tráfico
El Equilibrador de carga de tráfico proporciona tres modos de operación para la distribución del tráfico saliente y para manejar el procesamiento del tráfico de retorno.
La Tabla 3 resume la compatibilidad con TLB y en qué tarjetas es compatible.
Tarjeta de servicio de seguridad |
MS-MPC |
MX-SPC3 |
|---|---|---|
Traducir |
Sí |
Sí |
Retorno directo del servidor transparente de capa 3 |
Sí |
Sí |
Retorno directo del servidor transparente de capa 2 |
Sí |
No compatible |
- Modo transparente Retorno directo del servidor de capa 2
- Modo traducido
- Modo transparente Capa 3 Retorno directo del servidor
Modo transparente Retorno directo del servidor de capa 2
Cuando se utiliza el modo transparente, retorno directo del servidor (DSR) de capa 2:
La PFE procesa datos.
El equilibrio de carga funciona cambiando la MAC de capa 2 de los paquetes.
Una MS-MPC realiza los sondeos de monitoreo de red.
Los servidores reales deben ser accesibles directamente (capa 2) desde el enrutador de la serie MX.
TLB instala una ruta y todo el tráfico a través de esa ruta tiene un equilibrio de carga.
TLB nunca modifica los encabezados de capa 3 y de nivel superior.
La Figura 1 muestra la topología TLB para DSR de capa 2 en modo transparente.
transparente
Modo traducido
El modo traducido proporciona una mayor flexibilidad que el DSR de capa 2 en el modo transparente. Cuando elija el modo traducido:
Una MS-MPC realiza los sondeos de monitoreo de red.
El PFE realiza un equilibrio de carga sin estado:
El tráfico de datos dirigido a una dirección IP virtual se traduce de la dirección IP virtual a una dirección IP del servidor real y traduce el puerto virtual a un puerto de escucha del servidor. El tráfico de retorno se somete a la traducción inversa.
El tráfico del cliente a IP virtual se traduce; El tráfico se enruta para llegar a su destino.
El tráfico de servidor a cliente se captura mediante filtros implícitos y se dirige a un próximo salto de equilibrio de carga adecuado para el procesamiento inverso. Después de la traducción, el tráfico se enruta de vuelta al cliente.
Hay dos métodos de equilibrio de carga disponibles: aleatorio y hash. El método aleatorio es solo para el tráfico UDP y proporciona una distribución aleatoria de quavms. Aunque no es literalmente aleatorio, este modo proporciona una distribución justa del tráfico a un conjunto disponible de servidores. El método hash proporciona una clave hash basada en cualquier combinación de la dirección IP de origen, la dirección IP de destino y el protocolo.
Nota:El procesamiento del modo traducido solo está disponible para el tráfico de IPv4 a IPv4 e IPv6 a IPv6.
La Figura 2 muestra la topología TLB para el modo traducido.
traducido
Modo transparente Capa 3 Retorno directo del servidor
Modo transparente El equilibrio de carga DSR de capa 3 distribuye las sesiones a servidores que pueden estar a un salto de capa 3. El tráfico se devuelve directamente al cliente desde el servidor real.
Funciones del equilibrador de carga de tráfico
TLB proporciona las siguientes funciones:
TLB siempre distribuye las solicitudes para cualquier flujo. Cuando se especifica el modo DSR, la respuesta vuelve directamente al origen. Cuando se especifica el modo traducido, el tráfico inverso se dirige a través de filtros implícitos en las interfaces orientadas al servidor.
TLB admite el equilibrio de carga basado en hash o el equilibrio de carga aleatorio.
TLB le permite configurar servidores fuera de línea para evitar un impacto en el rendimiento que podría ser causado por un rehash para todos los flujos existentes. Puede agregar un servidor en el estado administrativo inactivo y usarlo más tarde para la distribución del tráfico deshabilitando el estado administrativo inactivo. Configurar servidores sin conexión ayuda a prevenir el impacto del tráfico a otros servidores.
Cuando la comprobación de estado determina que un servidor está inactivo, solo se repiten los flujos afectados.
Cuando un servidor previamente inactivo vuelve al servicio, todos los flujos que pertenecen a ese servidor en función del hash vuelven a él, lo que afecta al rendimiento de los flujos devueltos. Por esta razón, puede deshabilitar la reincorporación automática de un servidor a un grupo activo. Puede devolver los servidores al servicio emitiendo el
request services traffic-load-balance real-service rejoincomando operativo.Nota:TDR no se aplica a los flujos distribuidos.
La aplicación de monitoreo de chequeos de estado se ejecuta en una MS-MPC/NPU. Esta unidad de procesador de red (NPU) no se utiliza para controlar el tráfico de datos.
TLB admite la traducción estática de direcciones IP virtuales y la traducción de puertos de destino estáticos durante el equilibrio de carga.
TLB proporciona soporte VRF múltiple.
Componentes de la aplicación del equilibrador de carga de tráfico
- Servidores y grupos de servidores
- Supervisión del estado del servidor: comprobación de estado única y doble comprobación de estado
- Servicios virtuales
Servidores y grupos de servidores
TLB permite la configuración de grupos de hasta 255 servidores (denominados en las instrucciones de configuración como servicios reales) para su uso como destinos alternativos para la distribución de sesiones sin estado. Todos los servidores utilizados en grupos de servidores deben configurarse individualmente antes de asignarlos a grupos. El equilibrio de carga utiliza hash o aleatorización para la distribución de sesiones. Los usuarios pueden agregar y eliminar servidores hacia y desde la tabla de distribución de servidores TLB y también pueden cambiar el estado administrativo de un servidor.
TLB utiliza la API de próximo salto de distribución de sesión para actualizar la tabla de distribución del servidor y recuperar estadísticas. Las aplicaciones no tienen control directo sobre la administración de la tabla de distribución del servidor. Solo pueden influir en los cambios indirectamente a través de los servicios de agregar y eliminar de la API de TLB.
Supervisión del estado del servidor: comprobación de estado única y doble comprobación de estado
TLB admite TCP, HTTP, SSL Hello, TLS Hello y sondeos de comprobación de estado personalizados para supervisar el estado de los servidores de un grupo. Puede usar un solo tipo de sonda para un grupo de servidores o una configuración de comprobación de estado dual que incluya dos tipos de sonda. La función de supervisión de estado configurable reside en una MX-SPC3 o MS-MPC. De forma predeterminada, las solicitudes de sondeo se envían cada 5 segundos. Además, de forma predeterminada, un servidor real se declara inactivo solo después de cinco fallas consecutivas del sondeo y se declara activo solo después de cinco éxitos consecutivos del sondeo.
Utilice un sondeo de comprobación de estado personalizado para especificar lo siguiente:
-
Cadena esperada en la respuesta del sondeo
-
Cadena que se envía con el sondeo
-
Estado del servidor que se asignará cuando se agote el tiempo de espera de la sonda (activo o inactivo)
-
Estado del servidor que se asignará cuando se recibe la respuesta esperada al sondeo (arriba o abajo)
-
Protocolo: UDP o TCP
TLB proporciona adherencia a la aplicación, lo que significa que las fallas o cambios del servidor no afectan los flujos de tráfico a otros servidores activos. Cambiar el estado administrativo de un servidor de arriba a abajo no afecta a ningún flujo activo a los servidores restantes en la tabla de distribución de servidores. Agregar un servidor o eliminar un servidor de un grupo tiene cierto impacto en el tráfico durante un período de tiempo que depende de la configuración del intervalo y de los parámetros de reintento en el perfil de supervisión.
TLB proporciona dos niveles de supervisión de la salud del servidor:
-
Comprobación de estado única: un tipo de sonda se asocia a un grupo de servidores mediante la
network-monitoring-profileinstrucción de configuración. -
Comprobación de estado dual de TLB (TLB-DHC): dos tipos de sonda se asocian con un grupo de servidores por medio de la
network-monitoring-profileinstrucción de configuración. El estado de un servidor se declara en función del resultado de dos sondeos de comprobación de estado. Los usuarios pueden configurar hasta dos perfiles de comprobación de estado por grupo de servidores. Si un grupo de servidores está configurado para una comprobación de estado dual, un servicio real se declara activo solo cuando ambos sondeos de comprobación de estado están simultáneamente activos; de lo contrario, un servicio real se declara INACTIVO.
Las siguientes restricciones se aplican a las interfaces AMS usadas para la supervisión del estado del servidor:
-
Una interfaz AMS configurada en una instancia TLB utiliza sus interfaces miembro configuradas exclusivamente para comprobar el estado de varios servidores reales configurados.
-
Las interfaces miembro utilizan la unidad 0 para casos VRF únicos, pero pueden usar unidades distintas de 1 para casos VRF múltiples.
-
TLB utiliza la dirección IP configurada para las interfaces miembro de AMS como dirección IP de origen para las comprobaciones de estado.
-
Las interfaces miembro deben estar en la misma instancia de enrutamiento que la interfaz utilizada para llegar a los servidores reales. Esto es obligatorio para los procedimientos de comprobación del estado del servidor TLB.
A partir de Junos OS versión 24.2R1, cuando TLS y SSL están configurados en el mismo grupo, el mecanismo OR se utiliza ahora en lugar de AND para determinar el estado del servidor real. Es decir, el servidor real se marca como UP si alguna de las sondas está funcionando. Anteriormente, el servidor real solo se marcaba como UP si ambos sondeos se realizaban correctamente.
Cuando se proporciona la versión de sondeo SSL, sondea con esa versión. Cuando no se especifica la versión de SSL, el comportamiento cambia a Reserva de la versión v3 a v2. La sonda comienza con SSLv3. Si se produce un error en el sondeo SSLv3, el sistema sondea SSLv2. Anteriormente, cuando el atributo version no se proporcionaba explícitamente, el sondeo se realizaba con la versión predeterminada, v3.
Esta mejora del comportamiento de comprobación de estado solo se aplica cuando los sondeos TLS y SSL están configurados en el mismo grupo de comprobación de estado.
Se cambia el resultado de mostrar servicios de estadísticas de equilibrio de carga de tráfico <inst> extensivo.
user@host# show services traffic-load-balance statistics instance <inst-name>
Traffic load balance instance name : <inst-name> Multi services interface name : vms-3/0/0 Interface state : UP Interface type : Multi services Route hold timer : 180 Active real service count : 0 Total real service count : 8 Traffic load balance virtual svc name : vs1 IP address : 60.0.0.1 Virtual service mode : Translate mode Routing instance name : fwd_instance_1 Traffic load balance group name : group1 Traffic load balance group warmup time: 15 Traffic load balance group auto-rejoin: TRUE Health check interface subunit : 0 Traffic load balance group down count : 5 Protocol : tcp Port number : 443 Server Listening Port Number : 443 Route metric : 1 Virtual service down count : 5 Traffic load balance hash method : source Network monitoring profile count : 2 Active real service count : 0 Total real service count : 8 Demux Nexthop index : 673 Nexthop index : 674 Down time : 6d 00:01 Total packet sent count : 361749 Total byte sent count : 55165331 Total packet received count : 542636 Total byte received count : 28940680 Network monitoring profile index : 1 Network monitoring profile name : nm_prof_ssl Probe type : SSL-HELLO Probe interval : 2 Probe failure retry count : 5 Probe recovery retry count : 3 Port number : 443 Network monitoring profile index : 2 Network monitoring profile name : nm_prof_tls Probe type : TLS-HELLO Probe interval : 5 Probe failure retry count : 5 Probe recovery retry count : 5 Port number : 443 Traffic load balance real svc name : rs_1 Routing instance name : server_vrf_1 IP address : 40.1.1.2 Traffic load balance group name : group1 Admin state : UP Oper state : UP Network monitoring probe up count : 1 Network monitoring probe down count : 1 Total rejoin event count : 8 Total up event count : 9 Total down event count : 9 Real Service packet sent count : 69804 Real Service byte sent count : 10644724 Real Service packet received count : 104706 Real Service byte received count : 5584336 Total probe sent : 358307 Total probe success : 76 Total probe fail : 358231 Total probe sent failed : 0 Network monitoring profile index : 1 Network monitoring profile name : nm_prof_sslv3 Probe type : SSL-HELLO Probe state : UP SSL probe version : 3 Probe sent : 255933 Probe success : 255879 Probe fail : 54 Probe sent failed : 0 Probe consecutive success : 254635 Probe consecutive fail : 0 Network monitoring profile index : 2 Network monitoring profile name : nm_prof_tls Probe type : TLS-HELLO Probe state : DOWN TLS probe version : 1.2 Probe sent : 102374 Probe success : 22 Probe fail : 102352 Probe sent failed : 0 Probe consecutive success : 0 Probe consecutive fail : 101854
La versión de la sonda SSL-hello se mueve bajo estadísticas de servidor reales desde el servicio virtual cuando no se especifica la versión SSL en el perfil de comprobación de estado.
Servicios virtuales
El servicio virtual proporciona una dirección IP virtual (VIP) que está asociada con el grupo de servidores al que se dirige el tráfico, según lo determinado por la distribución de sesiones aleatorias o basadas en hash y la supervisión del estado del servidor. En el caso de DSR L2 y DSR L3, la dirección especial 0.0.0.0 hace que se equilibre la carga de todo el tráfico que fluye a la instancia de reenvío.
La configuración del servicio virtual incluye:
-
Modo: indica cómo se gestiona el tráfico (traducido o transparente).
-
El grupo de servidores al que se distribuyen las sesiones.
-
El método de equilibrio de carga.
-
Instancia de enrutamiento y métrica de ruta.
Aunque puede asignar una dirección virtual de 0.0.0.0 para utilizar el enrutamiento predeterminado, le recomendamos que utilice una dirección virtual que se pueda asignar a una instancia de enrutamiento configurada específicamente para TLB.
Límites de configuración del equilibrador de carga de tráfico
Los límites de configuración del equilibrador de carga de tráfico se describen en la tabla 4.
Componente de configuración |
Límite de configuración |
|---|---|
Número máximo de instancias |
A partir de Junos OS versión 16.1R6 y Junos OS versión 18.2R1, la aplicación TLB admite 2000 instancias TLB para servicios virtuales que utilizan el modo direct-server-return o el modo traducido. En versiones anteriores, el número máximo de instancias es 32. Si varios servicios virtuales utilizan el mismo grupo de servidores, todos esos servicios virtuales deben utilizar el mismo método de equilibrio de carga para admitir instancias de 2000 TLB. Para los servicios virtuales que utilizan el modo layer2-direct-server-return, TLB solo admite 32 instancias de TLB. Para realizar la misma función que el modo layer2-direct-server-return y tener compatibilidad con 2000 instancias TLB, puede utilizar el modo direct-server-return y utilizar un filtro de servicio con la acción de omitir. |
Número máximo de servidores por grupo |
255 |
Número máximo de servicios virtuales por PIC de servicios |
32 |
Número máximo de comprobaciones de estado por PIC de servicios en un intervalo de 5 segundos |
Para tarjetas de servicios MS-MPC: 2000 Para el modo de servicios de próxima generación y las tarjetas de servicios MX-SPC3: 1250 |
Número máximo de grupos por servicio virtual |
1 |
Número máximo de direcciones IP virtuales por servicio virtual |
1 |
Protocolos de comprobación de estado compatibles |
ICMP, TCP, HTTP, SSL, TLS-Hello, personalizado
Nota:
La comprobación de estado ICMP solo se admite en tarjetas de servicios MS-MPC. A partir de la versión 22.4R1 de Junos OS, TLB se ha mejorado para admitir el tipo de comprobación de estado TLS-Hello. Para TLS-Hello sobre TCP, se admiten las comprobaciones de estado de TLS v1.2 y v1.3. |
Ver también
Configurar TLB
En los temas siguientes se describe cómo configurar TLB. Para crear una aplicación completa, también debe definir interfaces e información de enrutamiento. Opcionalmente, puede definir filtros de firewall y opciones de políticas para diferenciar el tráfico TLB.
- Cargando el paquete de servicio TLB
- Configuración de un nombre de instancia TLB
- Configuración de la información de interfaz y enrutamiento
- Configuración de servidores
- Configuración de perfiles de monitoreo de red
- Configuración de grupos de servidores
- Configuración de servicios virtuales
- Configuración del seguimiento para la función de supervisión de comprobación de estado
Cargando el paquete de servicio TLB
Cargue el paquete de servicio TLB en cada PIC de servicio en el que desee ejecutar TLB.
Para los servicios de próxima generación y la tarjeta de servicios MX-SPC3, no es necesario cargar este paquete.
Para cargar el paquete de servicio TLB en una PIC de servicio:
Cargue el
jservices-traffic-dirdpaquete.[edit chassis fpc slot-number pic pic-number adaptive-services service-package extension-provider] user@host# set package jservices-traffic-dird
Por ejemplo:
[edit chassis fpc 3 pic 0 adaptive-services service-package extension-provider] user@host# set package jservices-traffic-dird
Configuración de un nombre de instancia TLB
system processes sdk-service enable en la jerarquía [edit].
Para configurar un nombre para la instancia de TLB:
-
En el nivel de
[edit services traffic-load-balance]jerarquía, identifique el nombre de instancia de TLB.[edit services traffic-load-balance] user@host# set instance instance-name
Por ejemplo:
[edit services traffic-load-balance] user@host# set instance tlb-instance1
Configuración de la información de interfaz y enrutamiento
Para configurar la información de interfaz y enrutamiento:
Configuración de servidores
Para configurar servidores para la instancia de TLB:
[edit services traffic-load-balance instance instance-name] user@host# set real-service real-service-name address server-ip-address
Por ejemplo:
[edit services traffic-load-balance instance tlb-instance1] user@host# set real-service rs138 address 172.26.99.138 user@host# set real-service rs139 address 172.26.99.139 user@host# set real-service rs140 address 172.26.99.140
Configuración de perfiles de monitoreo de red
Un perfil de supervisión de red configura una sonda de comprobación de estado, la cual se asigna a un grupo de servidores al que se distribuye el tráfico de sesión.
Para configurar un perfil de supervisión de red:
Configuración de grupos de servidores
Los grupos de servidores están formados por servidores a los que se distribuye el tráfico mediante la distribución de sesiones sin estado basada en hash y la supervisión del estado del servidor.
Para configurar un grupo de servidores:
Configuración de servicios virtuales
Un servicio virtual proporciona una dirección asociada a un grupo de servidores al que se dirige el tráfico, según lo determinado por la distribución de sesiones aleatorias o basadas en hash y la supervisión del estado del servidor. Opcionalmente, puede especificar filtros e instancias de enrutamiento para dirigir el tráfico para TLB.
Para configurar un servicio virtual:
Configuración del seguimiento para la función de supervisión de comprobación de estado
Para configurar las opciones de seguimiento para la función de supervisión de comprobación de estado:
Tabla de historial de cambios
La compatibilidad de la función depende de la plataforma y la versión que utilice. Utilice el Explorador de características para determinar si una característica es compatible con su plataforma.