Balanceador de carga de tráfego
Visão geral do balanceador de carga de tráfego
- Resumo do suporte para balanceamento de carga de tráfego
- Descrição do aplicativo do balanceador de carga de tráfego
- Modos de operação do balanceamento de carga de tráfego
- Funções do balanceador de carga de tráfego
- Componentes do aplicativo do balanceador de carga de tráfego
- Limites de configuração do balanceador de carga de tráfego
Resumo do suporte para balanceamento de carga de tráfego
A Tabela 1 fornece um resumo do suporte de balanceamento de carga de tráfego nas placas MS-MPC e MS-MIC para serviços adaptativos versus suporte na placa de serviços de segurança MX-SPC3 para Serviços de próxima geração.
MS-MPC |
MX-SPC3 |
||
---|---|---|---|
Versão junos |
< 16,1R6 e 18,2.R1 |
≥ 16,1R6 e 18,2R1 |
19.3R2 |
Máximo # de instâncias por chassi |
32 |
2.000 / 32 no modo DSR L2 |
2,000 |
Máximo # de serviços virtuais por instância |
32 |
32 |
32 |
Máximo # de endereço IP virtual por serviço virtual |
|
1 |
1 |
Máximo # de grupos por instâncias |
32 |
32 |
32 |
Máximo # de serviços reais (servidores) por grupo |
255 |
255 |
255 |
Máximo # de grupos por serviço virtual |
|
1 |
1 |
Máximo # de perfis de monitor de rede por grupo |
|
2 |
2 |
Máximo # dos HC's por serviços de segurança por PIC/NPU em 5 seg's |
|
4,000 |
1.250 – 19.3R2 10.000 – 20.1R1 |
Protocolos de verificação de saúde suportados |
ICMP, TCP, UDP, HTTP, SSL, Custom |
ICMP, TCP, UDP, HTTP, SSL, TLS Hello, Custom |
Descrição do aplicativo do balanceador de carga de tráfego
O balanceador de carga de tráfego (TLB) é suportado em roteadores da Série MX com qualquer um dos multisserviços Modular Port Concentrator (MS-MPC), placa de interface modular de multisserviços (MS-MIC) ou a placa de processamento de serviços de segurança MX (MX-SPC3) e em conjunto com as placas de linha Modular Port Concentrator (MPC) suportadas nos roteadores da Série MX, conforme descrito na Tabela 2.
Você não pode executar NAT determinístico e TLB simultaneamente.
Modo TLB |
Cobertura da plataforma MX |
---|---|
Concentrador modular de portas multisserviços (MS-MPC) |
MX240, MX2480, MX960, MX2008, MX2010, MX2020 |
Placa de processamento de serviços de segurança MX (MX-SPC3) |
MX240, MX480, MX960 |
O TLB permite que você distribua tráfego entre vários servidores.
A TLB emprega um plano de controle baseado em MS-MPC e um plano de dados usando o mecanismo de encaminhamento de roteador da Série MX.
O TLB usa uma versão aprimorada de multicaminho de igual custo (ECMP). O ECMP aprimorado facilita a distribuição de fluxos entre grupos de servidores. Melhorias no ECMP nativo garantem que, quando os servidores falharem, apenas fluxos associados a esses servidores sejam afetados, minimizando a rotatividade geral da rede em serviços e sessões.
O TLB oferece monitoramento de saúde baseado em aplicativos para até 255 servidores por grupo, fornecendo direcionamento de tráfego inteligente com base na verificação da integridade das informações de disponibilidade do servidor. Você pode configurar uma interface agregada de multisserviços (AMS) para oferecer redundância de um a um para MS-MPCs ou placa MX-SPC3 de serviços de próxima geração usada para monitoramento da saúde do servidor.
A TLB aplica seu processamento de distribuição de fluxo ao tráfego de entrada.
O TLB oferece suporte a várias instâncias de roteamento virtual para oferecer suporte aprimorado para requisitos de balanceamento de carga em grande escala.
O TLB oferece suporte a tradução estática de endereço virtual-IP para endereço IP real e tradução de porta de destino estática durante o balanceamento de carga.
Modos de operação do balanceamento de carga de tráfego
O Traffic Load Balancer oferece três modos de operação para a distribuição do tráfego de saída e para o processamento do tráfego de retorno.
A Tabela 3 resume o suporte ao TLB e em quais placas é suportado.
Placa de serviço de segurança |
MS-MPC |
MX-SPC3 |
---|---|---|
Traduzir |
Sim |
Sim |
Retorno transparente do servidor direto da Camada 3 |
Sim |
Sim |
Retorno transparente do servidor direto da Camada 2 |
Sim |
Não suportado |
- Retorno direto do servidor de camada 2 do modo transparente
- Modo traduzido
- Retorno do servidor direto da camada 3 do modo transparente
Retorno direto do servidor de camada 2 do modo transparente
Quando você usa o modo transparente Retorno direto do servidor de Camada 2 (DSR):
O PFE processa dados.
O balanceamento de carga funciona alterando o MAC de Camada 2 de pacotes.
Um MS-MPC realiza as sondas de monitoramento de rede.
Servidores reais devem ser diretamente (Camada 2) acessáveis a partir do roteador da Série MX.
O TLB instala uma rota e todo o tráfego por essa rota é equilibrado por carga.
O TLB nunca modifica cabeçalhos de Camada 3 e de nível superior.
A Figura 1 mostra a topologia TLB para um DSR de camada 2 transparente.

Modo traduzido
O modo traduzido oferece maior flexibilidade do que o modo transparente DSR de Camada 2. Quando você escolhe o modo traduzido:
Um MS-MPC realiza as sondas de monitoramento de rede.
O PFE realiza balanceamento de carga sem estado:
O tráfego de dados direcionado a um endereço IP virtual passa pela tradução do endereço IP virtual para um endereço IP de servidor real e traduz a porta virtual para uma porta de escuta de servidor. O tráfego de retorno passa pela tradução inversa.
O tráfego IP do cliente para virtual é traduzido; o tráfego é roteado para chegar ao seu destino.
O tráfego de servidor para cliente é capturado usando filtros implícitos e direcionado para um próximo salto de balanceamento de carga apropriado para processamento reverso. Após a tradução, o tráfego é roteado de volta para o cliente.
Dois métodos de balanceamento de carga estão disponíveis: aleatório e hash. O método aleatório é apenas para tráfego UDP e fornece distribuição aleatória de quavms. Embora não seja literalmente aleatório, este modo oferece uma distribuição justa de tráfego a um conjunto disponível de servidores. O método hash oferece uma chave de hash baseada em qualquer combinação do endereço IP de origem, endereço IP de destino e protocolo.
Nota:O processamento de modo traduzido só está disponível para tráfego IPv4-to-IPv4 e IPv6-to-IPv6.
A Figura 2 mostra a topologia TLB para modo traduzido.

Retorno do servidor direto da camada 3 do modo transparente
Modo transparente O balanceamento de carga DSR de Camada 3 distribui sessões para servidores que podem estar a um salto de Camada 3. O tráfego é devolvido diretamente ao cliente a partir do servidor real.
Funções do balanceador de carga de tráfego
O TLB fornece as seguintes funções:
O TLB sempre distribui as solicitações para qualquer fluxo. Quando você especifica o modo DSR, a resposta retorna diretamente à fonte. Quando você especifica o modo traduzido, o tráfego reverso é orientado por filtros implícitos em interfaces voltadas para o servidor.
O TLB oferece suporte a balanceamento de carga baseado em hash ou balanceamento aleatório de carga.
O TLB permite que você configure servidores offline para evitar um impacto de desempenho que pode ser causado por uma reformulação para todos os fluxos existentes. Você pode adicionar um servidor no estado administrativo para baixo e usá-lo mais tarde para distribuição de tráfego, desativando o estado administrativo para baixo. Configurar servidores offline ajuda a evitar impactos de tráfego em outros servidores.
Quando a verificação de saúde determina que um servidor está desativado, apenas os fluxos afetados são redirecionados.
Quando um servidor desativado anteriormente é devolvido ao serviço, todos os fluxos pertencentes a esse servidor com base no retorno de hashing a ele, afetando o desempenho para os fluxos devolvidos. Por esse motivo, você pode desabilitar o retorno automático de um servidor a um grupo ativo. Você pode devolver servidores ao serviço emitindo o
request services traffic-load-balance real-service rejoin
comando operacional.Nota:O NAT não é aplicado aos fluxos distribuídos.
O aplicativo de monitoramento de verificação de saúde é executado em um MS-MPC/NPU. Esta unidade de processador de rede (NPU) não é usada para lidar com o tráfego de dados.
O TLB oferece suporte a tradução estática de endereços ip-adddress-to-real-IP e tradução de portas de destino estáticas durante o balanceamento de carga.
O TLB oferece suporte a várias VRF.
Componentes do aplicativo do balanceador de carga de tráfego
- Servidores e grupos de servidores
- Monitoramento da saúde do servidor — verificação de saúde única e verificação de saúde dupla
- Serviços virtuais
Servidores e grupos de servidores
O TLB permite a configuração de grupos de até 255 servidores (referidos em declarações de configuração como serviços reais) para uso como destinos alternativos para distribuição de sessão sem estado. Todos os servidores usados em grupos de servidor devem ser configurados individualmente antes da atribuição a grupos. O balanceamento de carga usa hashing ou randomização para distribuição de sessão. Os usuários podem adicionar e excluir servidores de e para a tabela de distribuição do servidor TLB e também podem alterar o status administrativo de um servidor.
O TLB usa a API de distribuição de sessão para atualizar a tabela de distribuição do servidor e recuperar estatísticas. Os aplicativos não têm controle direto sobre o gerenciamento da tabela de distribuição do servidor. Eles só podem influenciar mudanças indiretamente por meio dos serviços de adição e exclusão da API do TLB.
Monitoramento da saúde do servidor — verificação de saúde única e verificação de saúde dupla
O TLB oferece suporte a TCP, HTTP, SSL Hello, TLS Hello e sondagens personalizadas de verificação de saúde para monitorar a integridade dos servidores em um grupo. Você pode usar um único tipo de sondagem para um grupo de servidor, ou uma configuração de verificação de saúde dupla que inclui dois tipos de sondagem. A função de monitoramento de saúde configurável reside em um MX-SPC3 ou em um MS-MPC. Por padrão, as solicitações de sondagem são enviadas a cada 5 segundos. Além disso, por padrão, um servidor real é declarado desativado somente após cinco falhas consecutivas na sondagem e declarado apenas após cinco sucessos consecutivos de sondagem.
Use uma sonda de verificação de saúde personalizada para especificar o seguinte:
-
String esperada na resposta da sonda
-
String que é enviado com a sonda
-
Status do servidor para atribuir quando o tempo de sondagem estiver desativado (para cima ou para baixo)
-
Status do servidor para atribuir quando a resposta esperada à sonda for recebida (para cima ou para baixo)
-
Protocolo — UDP ou TCP
O TLB oferece atenções de aplicativos, o que significa que falhas ou alterações no servidor não afetam os fluxos de tráfego para outros servidores ativos. Mudar o estado administrativo de um servidor de cima para baixo não afeta nenhum fluxo ativo para servidores remanescentes na tabela de distribuição de servidores. Adicionar um servidor ou excluir um servidor de um grupo tem algum impacto de tráfego por um período de tempo que depende da sua configuração do intervalo e da nova tentativa de parâmetros no perfil de monitoramento.
O TLB oferece dois níveis de monitoramento de saúde do servidor:
-
Verificação de saúde única — um tipo de sondagem é anexado a um grupo de servidor por meio da
network-monitoring-profile
declaração de configuração. -
TLB Dual Health Check (TLB-DHC) — Dois tipos de sondagem estão associados a um grupo de servidor por meio da
network-monitoring-profile
declaração de configuração. O status de um servidor é declarado com base no resultado de duas sondagens de verificação de saúde. Os usuários podem configurar até dois perfis de verificação de saúde por grupo de servidor. Se um grupo de servidor estiver configurado para verificação de saúde dupla, um serviço real será declarado UP apenas quando ambas as sondas de verificação de saúde estiverem simultaneamente UP; caso contrário, um serviço real é declarado desativado.
As seguintes restrições se aplicam às interfaces AMS usadas para o monitoramento da saúde do servidor:
-
Uma interface AMS configurada sob uma instância TLB usa suas interfaces de membro configuradas exclusivamente para verificação de integridade de vários servidores reais configurados.
-
As interfaces de membro usam a unidade 0 para casos VRF únicos, mas podem usar unidades que não sejam 1 para vários casos de VRF.
-
O TLB usa o endereço IP configurado para interfaces de membro AMS como endereço IP de origem para verificações de integridade.
-
As interfaces de membro devem estar na mesma instância de roteamento que a interface usada para alcançar servidores reais. Isso é obrigatório para procedimentos de verificação de integridade do servidor TLB.
A partir do Junos OS Release 24.2R1, quando o TLS e o SSL estão configurados no mesmo grupo, o mecanismo OR é usado agora em vez de E para determinar o status do servidor real. Ou seja, o servidor real está marcado como UP se alguma das sondas estiver funcionando. Anteriormente, o servidor real só estava marcado para up se ambas as sondas fossem bem sucedidas.
Quando a versão de sondagem SSL é fornecida, ela sonda essa versão. Quando a versão SSL não é especificada, o comportamento muda para Fallback da versão v3 para v2. A sonda começa com o SSLv3. Se a sonda SSLv3 falhar, o sistema sonda o SSLv2. Anteriormente, quando o atributo da versão não foi fornecido explicitamente, a sondagem foi feita com a versão padrão, v3.
Esse aprimoramento de comportamento de verificação de saúde só é aplicável quando as sondas TLS e SSL estão configuradas no mesmo grupo de verificação de saúde.
A saída para a instância de estatísticas de equilíbrio de carga de tráfego de serviços <inst> extensa é alterada.
user@host# show services traffic-load-balance statistics instance <inst-name>
Traffic load balance instance name : <inst-name> Multi services interface name : vms-3/0/0 Interface state : UP Interface type : Multi services Route hold timer : 180 Active real service count : 0 Total real service count : 8 Traffic load balance virtual svc name : vs1 IP address : 60.0.0.1 Virtual service mode : Translate mode Routing instance name : fwd_instance_1 Traffic load balance group name : group1 Traffic load balance group warmup time: 15 Traffic load balance group auto-rejoin: TRUE Health check interface subunit : 0 Traffic load balance group down count : 5 Protocol : tcp Port number : 443 Server Listening Port Number : 443 Route metric : 1 Virtual service down count : 5 Traffic load balance hash method : source Network monitoring profile count : 2 Active real service count : 0 Total real service count : 8 Demux Nexthop index : 673 Nexthop index : 674 Down time : 6d 00:01 Total packet sent count : 361749 Total byte sent count : 55165331 Total packet received count : 542636 Total byte received count : 28940680 Network monitoring profile index : 1 Network monitoring profile name : nm_prof_ssl Probe type : SSL-HELLO Probe interval : 2 Probe failure retry count : 5 Probe recovery retry count : 3 Port number : 443 Network monitoring profile index : 2 Network monitoring profile name : nm_prof_tls Probe type : TLS-HELLO Probe interval : 5 Probe failure retry count : 5 Probe recovery retry count : 5 Port number : 443 Traffic load balance real svc name : rs_1 Routing instance name : server_vrf_1 IP address : 40.1.1.2 Traffic load balance group name : group1 Admin state : UP Oper state : UP Network monitoring probe up count : 1 Network monitoring probe down count : 1 Total rejoin event count : 8 Total up event count : 9 Total down event count : 9 Real Service packet sent count : 69804 Real Service byte sent count : 10644724 Real Service packet received count : 104706 Real Service byte received count : 5584336 Total probe sent : 358307 Total probe success : 76 Total probe fail : 358231 Total probe sent failed : 0 Network monitoring profile index : 1 Network monitoring profile name : nm_prof_sslv3 Probe type : SSL-HELLO Probe state : UP SSL probe version : 3 Probe sent : 255933 Probe success : 255879 Probe fail : 54 Probe sent failed : 0 Probe consecutive success : 254635 Probe consecutive fail : 0 Network monitoring profile index : 2 Network monitoring profile name : nm_prof_tls Probe type : TLS-HELLO Probe state : DOWN TLS probe version : 1.2 Probe sent : 102374 Probe success : 22 Probe fail : 102352 Probe sent failed : 0 Probe consecutive success : 0 Probe consecutive fail : 101854
A versão de sonda SSL-hello é movida sob estatísticas reais de servidor do serviço virtual quando a versão SSL não é especificada no perfil de verificação de integridade.
Serviços virtuais
O serviço virtual fornece um endereço IP virtual (VIP) associado ao grupo de servidores ao qual o tráfego é direcionado conforme determinado pela distribuição de sessão baseada em hash ou aleatória e monitoramento de saúde do servidor. No caso do L2 DSR e L3 DSR, o endereço especial 0.0.0.0 faz com que todo o fluxo de tráfego para a instância de encaminhamento seja equilibrado.
A configuração do serviço virtual inclui:
-
Modo — indicando como o tráfego é tratado (traduzido ou transparente).
-
O grupo de servidores para os quais as sessões são distribuídas.
-
O método de balanceamento de carga.
-
Instância de roteamento e métrica de rota.
Embora você possa atribuir um endereço virtual de 0.0.0.0 para usar o roteamento padrão, recomendamos usar um endereço virtual que possa ser atribuído a uma instância de roteamento criada especificamente para o TLB.
Limites de configuração do balanceador de carga de tráfego
Os limites de configuração do balanceamento de carga de tráfego são descritos na Tabela 4.
Componente de configuração |
Limite de configuração |
---|---|
Número máximo de instâncias |
A partir do Junos OS Release 16.1R6 e Junos OS Release 18.2R1, o aplicativo TLB oferece suporte a instâncias de 2000 TLB para serviços virtuais que usam o retorno direto do servidor ou o modo traduzido. Em versões anteriores, o número máximo de instâncias é de 32. Se vários serviços virtuais estiverem usando o mesmo grupo de servidores, todos esses serviços virtuais devem usar o mesmo método de balanceamento de carga para oferecer suporte a 2000 instâncias TLB. Para serviços virtuais que usam o modo de retorno direto do servidor de camada2, o TLB oferece suporte a apenas 32 instâncias TLB. Para executar a mesma função que o modo de retorno direto do servidor de camada2 e ter suporte para 2000 instâncias TLB, você pode usar o modo de retorno direto do servidor e usar um filtro de serviço com a ação de salto. |
Número máximo de servidores por grupo |
255 |
Número máximo de serviços virtuais por serviços PIC |
32 |
Número máximo de verificações de saúde por serviços PIC em um intervalo de 5 segundos |
Para placas de serviços MS-MPC: 2000 Para o modo Serviços de próxima geração e as placas de serviçoS MX-SPC3: 1250 |
Número máximo de grupos por serviço virtual |
1 |
Número máximo de endereços IP virtuais por serviço virtual |
1 |
Protocolos de verificação de saúde suportados |
ICMP, TCP, HTTP, SSL, TLS-Hello, Custom
Nota:
A verificação de saúde do ICMP é suportada apenas em placas de serviços MS-MPC. A partir do lançamento do Junos OS 22.4R1, o TLB é aprimorado para oferecer suporte ao tipo de verificação de saúde TLS-Hello. Para tls-hello sobre TCP, os exames de saúde TLS v1.2 e v1.3 são suportados. |
Veja também
Configuração do TLB
Os tópicos a seguir descrevem como configurar o TLB. Para criar um aplicativo completo, você também deve definir interfaces e informações de roteamento. Você pode definir opcionalmente filtros de firewall e opções de políticas para diferenciar o tráfego TLB.
- Carregamento do pacote de serviços TLB
- Configuração de um nome de instância TLB
- Configuração de informações de interface e roteamento
- Configuração de servidores
- Configuração de perfis de monitoramento de rede
- Configuração de grupos de servidores
- Configuração de serviços virtuais
- Configuração do rastreamento para a função de monitoramento de verificação de saúde
Carregamento do pacote de serviços TLB
Carregue o pacote de serviçoS TLB em cada PIC de serviço no qual você deseja executar o TLB.
Para serviços de próxima geração e a placa de serviços MX-SPC3, você não precisa carregar este pacote.
Para carregar o pacote de serviçoS TLB em uma PIC de serviço:
Carregue o
jservices-traffic-dird
pacote.[edit chassis fpc slot-number pic pic-number adaptive-services service-package extension-provider] user@host# set package jservices-traffic-dird
Por exemplo:
[edit chassis fpc 3 pic 0 adaptive-services service-package extension-provider] user@host# set package jservices-traffic-dird
Configuração de um nome de instância TLB
system processes sdk-service enable
na hierarquia [editar].
Para configurar um nome para a instância TLB:
-
No nível de
[edit services traffic-load-balance]
hierarquia, identifique o nome da instância TLB.[edit services traffic-load-balance] user@host# set instance instance-name
Por exemplo:
[edit services traffic-load-balance] user@host# set instance tlb-instance1
Configuração de informações de interface e roteamento
Para configurar informações de interface e roteamento:
Configuração de servidores
Para configurar servidores para a instância TLB:
[edit services traffic-load-balance instance instance-name] user@host# set real-service real-service-name address server-ip-address
Por exemplo:
[edit services traffic-load-balance instance tlb-instance1] user@host# set real-service rs138 address 172.26.99.138 user@host# set real-service rs139 address 172.26.99.139 user@host# set real-service rs140 address 172.26.99.140
Configuração de perfis de monitoramento de rede
Um perfil de monitoramento de rede configura uma sondagem de verificação de saúde, que você atribui a um grupo de servidor ao qual o tráfego de sessão é distribuído.
Para configurar um perfil de monitoramento de rede:
Configuração de grupos de servidores
Os grupos de servidores consistem em servidores aos quais o tráfego é distribuído por meio de distribuição de sessão sem estado e baseada em hash e monitoramento da saúde do servidor.
Para configurar um grupo de servidor:
Configuração de serviços virtuais
Um serviço virtual fornece um endereço associado a um grupo de servidores ao qual o tráfego é direcionado conforme determinado pela distribuição de sessão baseada em hash ou aleatória e monitoramento da saúde do servidor. Você pode especificar opcionalmente filtros e instâncias de roteamento para direcionar o tráfego para o TLB.
Para configurar um serviço virtual:
Configuração do rastreamento para a função de monitoramento de verificação de saúde
Para configurar opções de rastreamento para a função de monitoramento de verificação de saúde:
Tabela de histórico de mudanças
O suporte de recursos é determinado pela plataforma e versão que você está usando. Use o Feature Explorer para determinar se um recurso é suportado em sua plataforma.