Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Projeto e implementação de interconexão de data center usando rotas do tipo 5

Interconexão de data center usando rotas EVPN Tipo 5

As rotas EVPN Tipo 5, também conhecidas como rotas de prefixo IP, são usadas em um contexto de DCI para passar tráfego entre data centers que estão usando diferentes esquemas de sub-rede de endereço IP.

Nesta arquitetura de referência, as rotas EVPN Tipo 5 são trocadas entre dispositivos spine em diferentes data centers para permitir a passagem de tráfego entre data centers.

A conectividade física entre os data centers é necessária antes que as mensagens EVPN Tipo 5 possam ser enviadas por data centers. Essa conectividade física é fornecida por dispositivos de backbone em uma nuvem WAN. Um dispositivo de backbone é conectado a cada dispositivo spine em um único data center e participa das sessões de EBGP overlay e underlay. O EBGP também é executado em um grupo BGP separado para conectar os dispositivos de backbone uns aos outros; A sinalização EVPN está habilitada neste grupo BGP.

A Figura 1 mostra dois data centers usando rotas EVPN Tipo 5 para DCI.

Figura 1: DCI usando visão geral da topologia de rotas EVPN Tipo 5 DCI Using EVPN Type 5 Routes Topology Overview

Para obter mais informações sobre as rotas EVPN Tipo 5, consulte a rota EVPN Tipo-5 com encapsulamento VXLAN para EVPN-VXLAN.

Todos os procedimentos nesta seção assumem que as rotas EVPN Tipo 2 estão sendo aprovadas com sucesso nos data centers. Consulte o projeto e a implementação de sobreposição de pontes roteadas centralmente para obter instruções de configuração.

Esta seção abrange os processos de configuração de uma DCI usando rotas EVPN Tipo 5, e inclui os seguintes procedimentos:

Configuração de interfaces de dispositivos de backbone

Os dispositivos de backbone nesta arquitetura fazem parte da nuvem WAN e devem fornecer conectividade tanto aos dispositivos spine em cada data center quanto ao outro dispositivo backbone. Essa conectividade deve ser estabelecida antes que as rotas EVPN Tipo 5 possam ser trocadas entre dispositivos spine em diferentes data centers.

A Figura 2 fornece uma visão geral dos endereços IP que estão configurados nessas etapas.

Figura 2: Resumo do endereço IP para dispositivos IP Address Summary for Backbone and Spine Devices backbone e spine

Para configurar as interfaces do dispositivo spine e do backbone:

Configure as interfaces e atribua endereços IP:
  • (Interfaces Ethernet agregadas) Configure as interfaces Ethernet agregadas nos switches de dispositivo spine em Data Centers 1 e 2 e nos dispositivos backbone.

    Essa etapa mostra a atribuição do endereço IP apenas para as interfaces Ethernet agregadas. Para obter instruções completas passo a passo sobre a criação de interfaces Ethernet agregadas, veja Configuração da agregação de enlaces.

    Dispositivo spine 1 em data center 1:

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 3 em data center 1:

    Dispositivo Spine 4 em data center 1:

    Dispositivo Spine 5 em data center 2:

    Dispositivo spine 6 em data center 2:

    Dispositivo de backbone 1:

    Dispositivo backbone 2:

  • (Interfaces independentes que não estão incluídas em interfaces Ethernet agregadas) Veja configuração do endereço da interface.

Habilitando o EBGP como o protocolo de roteamento de rede underlay entre os dispositivos spine e os dispositivos backbone

O EBGP é usado como protocolo de roteamento da rede underlay neste projeto de referência. Os dispositivos de backbone devem participar do EBGP com os dispositivos spine para oferecer suporte à conectividade underlay.

O processo para habilitar o EBGP nos dispositivos spine e leaf está coberto pela seção de Design e Implementação de Rede Underlay de Malha IP deste guia. Esse procedimento pressupõe que o EBGP já foi habilitado nos dispositivos spine e leaf, embora alguma configuração de EBGP nos dispositivos spine precise ser atualizada para oferecer suporte a dispositivos backbone e, portanto, está incluída nestas etapas.

O EBGP funciona neste design de referência atribuindo cada dispositivo leaf, spine e backbone em seu próprio número exclusivo de sistema autônomo (AS) de 32 bits.

A Figura 3 mostra uma visão geral da topologia EBGP para dispositivos spine e backbone quando dispositivos de backbone são incluídos no design de referência.

Figura 3: Topologia EBGP com dispositivos EBGP Topology with Backbone Devices backbone

A Figura 4 ilustra os parâmetros de protocolo EBGP que estão configurados neste procedimento. Repita esse processo para os outros dispositivos na topologia para habilitar o EBGP nos dispositivos restantes.

Figura 4: Configuração de EBGP em uma topologia EBGP Configuration in a Backbone Topology de backbone

Para permitir que o EBGP ofereça suporte à rede underlay neste design de referência:

  1. Crie e nomeie o grupo de peer BGP. O EBGP está habilitado como parte desta etapa.

    Todos os dispositivos spine e backbone:

  2. Configure a ASN para cada dispositivo no underlay.

    Neste design de referência, cada dispositivo recebe uma ASN única na rede underlay. A ASN para EBGP na rede underlay está configurada no nível de grupo de peer BGP usando a local-as declaração porque a configuração ASN do sistema é usada para sinalização MP-IBGP na rede overlay.

    Exemplo do dispositivo spine 2 em data center 1:

    Exemplo do dispositivo Spine 5 em data center 2:

    Dispositivo de backbone 1:

    Dispositivo backbone 2:

  3. Configure os pares BGP especificando a ASN de cada peer BGP na rede underlay em cada dispositivo spine e backbone.

    Neste design de referência, os dispositivos de backbone peer com todos os dispositivos spine no data center conectado e no outro dispositivo backbone.

    Os dispositivos spine peer com o dispositivo backbone que os conecta à nuvem WAN.

    Exemplo do dispositivo spine 2 em data center 1:

    Exemplo do dispositivo Spine 5 em data center 2:

    Dispositivo de backbone 1:

    Dispositivo backbone 2:

  4. Crie uma política de roteamento que identifica e inclui a interface de loopback nas atualizações da tabela de roteamento EBGP e a aplique.

    Essa política de roteamento de exportação é aplicada e é usada para anunciar a acessibilidade da interface de loopback para todos os dispositivos da malha de IP na rede overlay.

    Cada dispositivo spine e dispositivo backbone:

  5. Habilite o multicaminho para garantir que todas as rotas sejam instaladas e compartilhadas na tabela de encaminhamento.

    Cada dispositivo spine e dispositivo backbone:

Habilitando o IBGP para a rede overlay no dispositivo backbone

Os dispositivos de backbone devem executar o IBGP para ter conectividade de rede overlay e ser capazes de oferecer suporte a DCI usando rotas EVPN Tipo 5.

A Figura 5 mostra a configuração do IBGP do design de referência validado quando os dispositivos de backbone são incluídos na topologia. No design de referência validado, todos os dispositivos spine e leaf no mesmo data center são atribuídos ao mesmo sistema autônomo. Os dispositivos de backbone são atribuídos ao mesmo sistema autônomo que os dispositivos spine e leaf do data center que está usando o dispositivo backbone como ponto de entrada na nuvem WAN.

Figura 5: Visão geral do IBGP com dispositivos IBGP Overview with Backbone Devices backbone

A Figura 6 ilustra a configuração do refletor de rota no design de referência validado. Um cluster refletor de rota — cluster ID 192.168.2.10 — inclui o dispositivo backbone 1 como refletor de rota e todos os dispositivos spine no data center 1 como clientes refletores de rota. Outro cluster refletor de rota — cluster ID 192.168.2.11 — inclui o dispositivo backbone 2 como refletor de rota e todos os dispositivos spine no data center 2 como clientes refletores de rota.

Figura 6: Topologia do refletor de rotas DO IBGP IBGP Route Reflector Topology

O design de referência validado oferece suporte a vários refletores de rota hierárquicos, onde um cluster inclui dispositivos de backbone atuando como refletores de rota para clientes de dispositivos spine e outro cluster inclui dispositivos spine atuando como refletores de rota para clientes de dispositivos leaf. Para ver as etapas de configuração para configurar o outro refletor de rota, consulte Configure o IBGP para o Overlay.

A Figura 7 mostra a topologia completa do refletor de rotas hierárquica quando dois data centers estão conectados:

Figura 7: Topologia hierárquica do refletor de rotas IBGP Hierarchical IBGP Route Reflector Topology

Para obter mais informações sobre refletores de rota BGP, consulte Entendendo os refletores de rota BGP.

Esse procedimento pressupõe que o IBGP tenha sido habilitado para dispositivos spine e leaf conforme detalhado na Configuração do IBGP para o Overlay. As configurações do dispositivo spine estão incluídas neste procedimento para ilustrar suas relações com os dispositivos de backbone.

Para configurar a conectividade do IBGP para os dispositivos de backbone:

  1. Configure um número AS para overlay IBGP. Todos os dispositivos leaf e spine no mesmo data center estão configurados no mesmo AS. Os dispositivos de backbone estão configurados no mesmo que os dispositivos spine e leaf nos data centers usando o dispositivo backbone como ponto de entrada na nuvem WAN.

    Dispositivo de backbone 1 e todos os dispositivos Spine e Leaf no data center 1:

    Dispositivo backbone 2 e todos os dispositivos Spine e Leaf no data center 2:

  2. Configure o IBGP usando a sinalização EVPN nos dispositivos de backbone. Forme os clusters refletores de rota (IDs de cluster 192.168.2.10 e 192.168.2.11) e configure o BGP multicaminho e o MTU Discovery.

    Dispositivo de backbone 1:

    Dispositivo backbone 2:

  3. Configure o IBGP usando a sinalização EVPN nos dispositivos spine. Habilite o multicaminho BGP e o MTU Discovery.

    Exemplo do dispositivo spine 2 em data center 1:

    Exemplo do dispositivo Spine 5 em data center 2:

Habilitando o EBGP como protocolo de roteamento entre os dispositivos backbone

O EBGP também é usado como protocolo de roteamento entre os dispositivos de backbone neste design de referência. Os dispositivos de backbone estão conectados usando IP e os dispositivos de backbone devem ser configurados como pares de EBGP.

Um segundo grupo de EBGP —BACKBONE-BGP é criado nestas etapas para habilitar o EBGP entre os dispositivos de backbone. Cada dispositivo de backbone é atribuído a um número AS exclusivo de 32 bits dentro do novo grupo EBGP nestas etapas. Os dispositivos de backbone, portanto, fazem parte de dois grupos de EBGP eUNDERLAY-BGP BACKBONE-BGPtêm um número de AS único em cada grupo. A sinalização EVPN, que precisa ser executada para oferecer suporte à EVPN entre os dispositivos de backbone, também está configurada dentro do grupo EBGP durante este procedimento.

A Figura 8 ilustra os atributos necessários para habilitar o EBGP entre os dispositivos de backbone.

Figura 8: Topologia EBGP para conexão EBGP Topology for Backbone Device Connection de dispositivos de backbone

Para habilitar o EBGP como protocolo de roteamento entre os dispositivos de backbone:

  1. Crie e nomeie o grupo de peer BGP. O EBGP está habilitado como parte desta etapa.

    Ambos os dispositivos de backbone:

  2. Configure a ASN para cada dispositivo de backbone.

    Dispositivo de backbone 1:

    Dispositivo backbone 2:

  3. Configure os dispositivos de backbone como pares BGP.

    Dispositivo de backbone 1:

    Dispositivo backbone 2:

  4. Habilite a sinalização de EVPN entre os dispositivos de backbone:

    Ambos os dispositivos de backbone:

Configuração de DCI usando rotas EVPN Tipo 5

As mensagens EVPN Tipo 5 são trocadas entre interfaces IRB em dispositivos spine em diferentes data centers quando as rotas EVPN Tipo 5 são usadas para DCI. Essas interfaces IRB estão configuradas em uma instância de roteamento.

Cada data center tem um identificador de rede virtual único (VNI 102001 e 202001) nesta configuração, mas ambas as VNIs são mapeadas para a mesma VLAN (VLAN 2001) na mesma instância de roteamento (VRF 501).

Veja a Figura 9 para uma ilustração da instância de roteamento.

Figura 9: DCI usando rotas DCI Using EVPN Type 5 Routes EVPN Tipo 5

Para habilitar a DCI usando rotas EVPN Tipo 5:

Nota:

Esse procedimento pressupõe que as instâncias de roteamento, IRBs e VLANs criadas anteriormente neste guia estão operacionais. Veja o projeto e a implementação de sobreposição de pontes roteadas centralmente.

Ao implementar a funcionalidade border leaf em um roteador MX, tenha em mente que o roteador oferece suporte apenas a instâncias de switch virtuais. Os roteadores MX não oferecem suporte a instâncias padrão.

  1. Configure os endereços preferidos das interfaces IRB.

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

  2. Configure o mapeamento entre VLANs e as interfaces IRB.

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

  3. Configure uma instância de roteamento e mapeie a interface IRB para esta instância.

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

  4. Configure a instância VRF para gerar rotas EVPN Tipo 5.
    Nota:

    O VNI do data center local ou remoto — VNI 100501 ou 200501 nesta arquitetura de referência — deve ser inserido como VNI no set routing-instances VRF-501 protocols evpn ip-prefix-routes vni comando.

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

  5. Nos switchesxxx QFX5 que funcionam como dispositivos spine, habilitem o recurso next hop encadeado. Com esse recurso habilitado, os switches podem processar com mais eficiência grandes quantidades de rotas EVPN Tipo 5 direcionando rotas que compartilham o mesmo destino para um próximo salto de encaminhamento comum.
    Nota:

    Em QFX10000 switches, esse recurso é habilitado por padrão.

    Dispositivo spine 2 em data center 1 e dispositivo spine 5 em data center 2:

Verificando se a DCI usando rotas EVPN Tipo 5 está operando

Digite os seguintes comandos para verificar se o tráfego pode ser enviado entre data centers usando rotas EVPN Tipo 5:

  1. Verifique se uma rota EVPN Tipo 5 foi recebida do dispositivo spine no outro data center entrando no show route table comando. Digite o número da instância VRF e o diferencial de rota na linha de comando para filtrar os resultados.

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

  2. Verifique se as rotas EVPN Tipo 5 são exportadas e importadas na instância VRF entrando show evpn ip-prefix-database l3-context no comando e especificando a instância VRF.

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

  3. Verifique os detalhes do encapsulamento de rota EVPN Tipo 5 inserindo o show route table comando com a opção extensive .

    Dispositivo Spine 2 em data center 1:

    Dispositivo Spine 5 em data center 2:

DCI usando rotas do tipo 5 — Histórico de lançamentos

A Tabela 1 oferece um histórico de todos os recursos desta seção e seu suporte dentro deste design de referência.

Tabela 1: DCI usando histórico de lançamento de rotas tipo 5

Lançamento

Descrição

19.1R2

switches QFX10002-60C e QFX5120-32C que executam o Junos OS Release 19.1R2 e versões posteriores no mesmo trem de versão suportam todos os recursos documentados nesta seção.

18.4R2-S2

QFX5110 e switches QFX5120-48Y, e roteadores MX que executam o Junos OS Release 18.4R2-S2 e versões posteriores na mesma versão de versão suportam todos os recursos documentados nesta seção.