Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Diseño e implementación de interconexiones del centro de datos mediante rutas tipo 5

Interconexión del centro de datos mediante rutas EVPN tipo 5

Las rutas tipo 5 de EVPN, también conocidas como rutas de prefijo IP, se utilizan en un contexto DCI para pasar tráfico entre centros de datos que utilizan diferentes esquemas de subred de direcciones IP.

En esta arquitectura de referencia, las rutas de EVPN tipo 5 se intercambian entre dispositivos spine en diferentes centros de datos para permitir el paso del tráfico entre los centros de datos.

La conectividad física entre los centros de datos es necesaria antes de que se puedan enviar mensajes EVPN tipo 5 a través de los centros de datos. Esta conectividad física la proporcionan los dispositivos troncales en una nube WAN. Un dispositivo troncal se conecta a cada dispositivo spine en un único centro de datos y participa en las sesiones de IBGP superpuestas y EBGP subyacentes. El EBGP también se ejecuta en un grupo de BGP independiente para conectar los dispositivos troncales entre sí; La señalización de EVPN está habilitada en este grupo de BGP.

La Figura 1 muestra dos centros de datos que usan rutas EVPN tipo 5 para DCI.

Figura 1: Descripción general de la topología de rutas de DCI con rutas EVPN tipo 5 DCI Using EVPN Type 5 Routes Topology Overview

Para obtener más información sobre las rutas de EVPN tipo 5, consulte Ruta tipo 5 de EVPN con encapsulación VXLAN para EVPN-VXLAN.

Todos los procedimientos de esta sección suponen que las rutas de EVPN tipo 2 se están pasando correctamente en los centros de datos. Consulte Diseño e implementación de superposición de puentes enrutados centralmente para obtener instrucciones de configuración.

Esta sección cubre los procesos para configurar un DCI mediante rutas de tipo 5 de EVPN, e incluye los siguientes procedimientos:

Configuración de interfaces de dispositivo troncal

Los dispositivos troncales de esta arquitectura forman parte de la nube WAN y deben proporcionar conectividad tanto a los dispositivos spine de cada centro de datos como al otro dispositivo troncal. Esta conectividad debe establecerse antes de que se puedan intercambiar rutas EVPN tipo 5 entre dispositivos spine en diferentes centros de datos.

La Figura 2 proporciona una descripción general de las direcciones IP que se configuran en estos pasos.

Figura 2: Resumen de la dirección IP para dispositivos IP Address Summary for Backbone and Spine Devices troncales y spine

Para configurar las interfaces del dispositivo spine y del dispositivo troncal:

Configure las interfaces y asigne direcciones IP:
  • (Interfaces Ethernet agregadas) Configure las interfaces Ethernet agregadas en los conmutadores de dispositivos spine en los centros de datos 1 y 2 y en los dispositivos troncales.

    En este paso, se muestra la asignación de la dirección IP solo a las interfaces de Ethernet agregadas. Para obtener instrucciones paso a paso completas sobre la creación de interfaces Ethernet agregadas, consulte Configurar la agregación de vínculos.

    Dispositivo spine 1 en el centro de datos 1:

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 3 en el centro de datos 1:

    Dispositivo spine 4 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

    Dispositivo spine 6 en el centro de datos 2:

    Dispositivo troncal 1:

    Dispositivo troncal 2:

  • (Interfaces independientes que no están incluidas en interfaces Ethernet agregadas) Consulte Configuración de la dirección de interfaz.

Habilitación del EBGP como protocolo de enrutamiento de red subyacente entre los dispositivos spine y los dispositivos troncales

El EBGP se utiliza como protocolo de enrutamiento de la red subyacente en este diseño de referencia. Los dispositivos troncales deben participar en el EBGP con los dispositivos spine para admitir la conectividad subyacente.

El proceso para habilitar el EBGP en los dispositivos spine and leaf está cubierto en la sección Diseño e implementación de red subyacente de estructura IP de esta guía. Este procedimiento supone que el EBGP ya se ha habilitado en los dispositivos spine y leaf, aunque alguna configuración de EBGP en los dispositivos spine debe actualizarse para admitir dispositivos troncales y, por lo tanto, se incluye en estos pasos.

El EBGP funciona en este diseño de referencia mediante la asignación de cada dispositivo leaf, spine y backbone en su propio número único de sistema autónomo (AS) de 32 bits.

La Figura 3 muestra una descripción general de la topología del EBGP para los dispositivos spine y troncal cuando los dispositivos troncales se incluyen en el diseño de referencia.

Figura 3: Topología de EBGP con dispositivos troncales EBGP Topology with Backbone Devices

La figura 4 muestra los parámetros de protocolo EBGP que se configuran en este procedimiento. Repita este proceso para los otros dispositivos de la topología para habilitar EBGP en los dispositivos restantes.

Figura 4: Configuración del EBGP en una topología EBGP Configuration in a Backbone Topology troncal

Para permitir que el EBGP admita la red subyacente en este diseño de referencia:

  1. Cree y asigne un nombre al grupo de pares del BGP. El EBGP está habilitado como parte de este paso.

    Todos los dispositivos spine y backbone:

  2. Configure el ASN para cada dispositivo en la capa subyacente.

    En este diseño de referencia, a cada dispositivo se le asigna un ASN único en la red subyacente. El ASN para EBGP en la red subyacente se configura en el nivel del grupo de pares del BGP mediante la local-as instrucción, ya que la configuración asn del sistema se utiliza para la señalización de MP-IBGP en la red superpuesta.

    Dispositivo spine 2 en el centro de datos 1 Ejemplo:

    Dispositivo spine 5 en el centro de datos 2 Ejemplo:

    Dispositivo troncal 1:

    Dispositivo troncal 2:

  3. Configure los pares de BGP especificando el ASN de cada par de BGP en la red subyacente en cada dispositivo spine y backbone.

    En este diseño de referencia, los dispositivos troncales se emparejan con cada dispositivo spine del centro de datos conectado y el otro dispositivo troncal.

    Los dispositivos spine se emparejan con el dispositivo troncal que los conecta a la nube WAN.

    Dispositivo spine 2 en el centro de datos 1 Ejemplo:

    Dispositivo spine 5 en el centro de datos 2 Ejemplo:

    Dispositivo troncal 1:

    Dispositivo troncal 2:

  4. Cree una política de enrutamiento que identifique e incluya la interfaz de circuito cerrado en las actualizaciones de la tabla de enrutamiento de EBGP y aplíquela.

    Esta política de enrutamiento de exportación se aplica y se utiliza para anunciar la accesibilidad de la interfaz de circuito cerrado a todos los dispositivos de la estructura IP en la red superpuesta.

    Cada dispositivo spine y backbone:

  5. Habilite varias rutas para garantizar que todas las rutas se instalan y comparten en la tabla de reenvío.

    Cada dispositivo spine y backbone:

Habilitación del IBGP para la red superpuesta en el dispositivo troncal

Los dispositivos troncales deben ejecutar IBGP para tener conectividad de red superpuesta y ser capaces de admitir DCI mediante rutas EVPN tipo 5.

La Figura 5 muestra la configuración del IBGP del diseño de referencia validado cuando los dispositivos troncales se incluyen en la topología. En el diseño de referencia validado, todos los dispositivos spine y leaf del mismo centro de datos se asignan en el mismo sistema autónomo. Los dispositivos troncales se asignan al mismo sistema autónomo que los dispositivos spine y leaf del centro de datos que utiliza el dispositivo troncal como punto de entrada a la nube WAN.

Figura 5: Descripción general del IBGP con dispositivos troncales IBGP Overview with Backbone Devices

La figura 6 muestra la configuración del reflector de ruta en el diseño de referencia validado. El clúster de reflector de una ruta (ID de clúster 192.168.2.10) incluye el dispositivo troncal 1 como reflector de ruta y todos los dispositivos spine del centro de datos 1 como clientes del reflector de ruta. Otro clúster de reflector de ruta, el ID de clúster 192.168.2.11, incluye el dispositivo troncal 2 como reflector de ruta y todos los dispositivos spine del centro de datos 2 como clientes del reflector de ruta.

Figura 6: Topología IBGP Route Reflector Topology de reflector de ruta IBGP

El diseño de referencia validado admite varios reflectores de ruta jerárquicos, donde un clúster incluye dispositivos troncales que actúan como reflectores de ruta para los clientes de dispositivos spine y otro clúster incluye dispositivos spine que actúan como reflectores de ruta para clientes de dispositivos leaf. Para ver los pasos de configuración para configurar el otro reflector de ruta, consulte Configurar IBGP para la superposición.

La Figura 7 muestra la topología de reflector de ruta jerárquica completa cuando se conectan dos centros de datos:

Figura 7: Topología de reflector de ruta de IBGP jerárquica Hierarchical IBGP Route Reflector Topology

Para obtener más información sobre los reflector de ruta BGP, consulte Descripción de los reflector de ruta BGP.

En este procedimiento, se da por sentado que el IBGP se ha habilitado para los dispositivos spine and leaf, como se detalla en Configurar IBGP para la superposición. Las configuraciones del dispositivo spine se incluyen en este procedimiento para ilustrar sus relaciones con los dispositivos troncales.

Para configurar la conectividad del IBGP para los dispositivos troncales:

  1. Configure un número de AS para el IBGP superpuesto. Todos los dispositivos leaf y spine del mismo centro de datos están configurados en el mismo AS. Los dispositivos troncales se configuran en el mismo AS que los dispositivos spine y leaf en los centros de datos mediante el uso del dispositivo troncal como punto de entrada a la nube WAN.

    El dispositivo troncal 1 y todos los dispositivos spine y leaf en el centro de datos 1:

    El dispositivo troncal 2 y todos los dispositivos spine y leaf en el centro de datos 2:

  2. Configure el IBGP mediante la señalización EVPN en los dispositivos troncales. Forme los clústeres de reflector de ruta (IDs de clúster 192.168.2.10 y 192.168.2.11) y configure multiruta de BGP y descubrimiento de MTU.

    Dispositivo troncal 1:

    Dispositivo troncal 2:

  3. Configure el IBGP mediante la señalización de EVPN en los dispositivos spine. Habilite el descubrimiento de múltiples rutas y MTU del BGP.

    Dispositivo spine 2 en el centro de datos 1 Ejemplo:

    Dispositivo spine 5 en el centro de datos 2 Ejemplo:

Habilitación del EBGP como protocolo de enrutamiento entre los dispositivos troncales

El EBGP también se utiliza como protocolo de enrutamiento entre los dispositivos troncales en este diseño de referencia. Los dispositivos troncales se conectan mediante IP y los dispositivos troncales deben configurarse como pares EBGP.

En estos pasos, se crea un segundo grupoBACKBONE-BGP de EBGP para habilitar el EBGP entre los dispositivos troncales. En estos pasos, se asigna a cada dispositivo troncal en un número de AS de 32 bits único dentro del nuevo grupo de EBGP. Por lo tanto, los dispositivos troncales forman parte de dos grupos de EBGP yUNDERLAY-BGP BACKBONE-BGP—y tienen un número de AS único dentro de cada grupo. La señalización de EVPN, que tiene que ejecutarse para admitir EVPN entre los dispositivos troncales, también se configura dentro del grupo EBGP durante este procedimiento.

La Figura 8 muestra los atributos necesarios para habilitar el EBGP entre los dispositivos troncales.

Figura 8: Topología de EBGP para la conexión de dispositivos troncales EBGP Topology for Backbone Device Connection

Para habilitar el EBGP como protocolo de enrutamiento entre los dispositivos troncales:

  1. Cree y asigne un nombre al grupo de pares del BGP. El EBGP está habilitado como parte de este paso.

    Ambos dispositivos troncales:

  2. Configure el ASN para cada dispositivo troncal.

    Dispositivo troncal 1:

    Dispositivo troncal 2:

  3. Configure los dispositivos troncales como pares de BGP.

    Dispositivo troncal 1:

    Dispositivo troncal 2:

  4. Habilite la señalización EVPN entre los dispositivos troncales:

    Ambos dispositivos troncales:

Configuración de DCI mediante rutas EVPN tipo 5

Los mensajes tipo 5 de EVPN se intercambian entre interfaces IRB en dispositivos spine en diferentes centros de datos cuando se utilizan rutas EVPN tipo 5 para DCI. Estas interfaces IRB se configuran en una instancia de enrutamiento.

Cada centro de datos tiene un identificador de red virtual único (VNI 102001 y 202001) en esta configuración, pero ambas VNI se asignan a la misma VLAN (VLAN 2001) en la misma instancia de enrutamiento (VRF 501).

Consulte la Figura 9 para ver una ilustración de la instancia de enrutamiento.

Figura 9: DCI usando rutas DCI Using EVPN Type 5 Routes EVPN tipo 5

Para habilitar DCI mediante rutas EVPN tipo 5:

Nota:

En este procedimiento, se da por sentado que las instancias de enrutamiento, las IRB y las VLAN creadas anteriormente en esta guía están operativas. Consulte Diseño e implementación de superposición de puentes enrutados centralmente.

Cuando implemente la funcionalidad leaf de borde en un enrutador MX, tenga en cuenta que el enrutador solo admite instancias de conmutador virtual. Los enrutadores MX no admiten instancias predeterminadas.

  1. Configure las direcciones preferidas de las interfaces IRB.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

  2. Configure la asignación entre las VLAN y las interfaces IRB.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

  3. Configure una instancia de enrutamiento y asigne la interfaz IRB a esta instancia.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

  4. Configure la instancia de VRF para generar rutas EVPN tipo 5.
    Nota:

    El VNI del centro de datos local o remoto (VNI 100501 o 200501 en esta arquitectura de referencia) se debe introducir como VNI en el set routing-instances VRF-501 protocols evpn ip-prefix-routes vni comando.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

  5. En los conmutadoresxxx QFX5 que funcionan como dispositivos spine, habilite la función de siguiente salto compuesto encadenado. Con esta función habilitada, los conmutadores pueden procesar de manera más eficiente grandes cantidades de rutas de EVPN tipo 5 al dirigir las rutas que comparten el mismo destino a un próximo salto de reenvío común.
    Nota:

    En conmutadores QFX10000, esta función está habilitada de forma predeterminada.

    El dispositivo spine 2 en el centro de datos 1 y el dispositivo spine 5 en el centro de datos 2:

Verificar que DCI con rutas EVPN tipo 5 está funcionando

Ingrese los siguientes comandos para verificar que se puede enviar tráfico entre centros de datos mediante rutas de tipo 5 de EVPN:

  1. Ingrese el show route table comando para verificar que se ha recibido una ruta EVPN tipo 5 del dispositivo spine en el otro centro de datos. Escriba el número de instancia de VRF y el distinguidor de ruta en la línea de comandos para filtrar los resultados.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

  2. Para comprobar que las rutas de EVPN tipo 5 se exportan e importan en la instancia de VRF, ingrese el show evpn ip-prefix-database l3-context comando y especifique la instancia de VRF.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

  3. Verifique los detalles de la encapsulación de ruta de tipo 5 de EVPN ingresando el show route table comando con la extensive opción.

    Dispositivo spine 2 en el centro de datos 1:

    Dispositivo spine 5 en el centro de datos 2:

DCI mediante rutas de tipo 5: historial de versiones

En la Tabla 1 se proporciona un historial de todas las características de esta sección y su soporte dentro de este diseño de referencia.

Tabla 1: DCI mediante el historial de versiones de rutas de tipo 5

Lanzamiento

Descripción

19.1R2

Los conmutadores QFX10002-60C y QFX5120-32C que ejecutan la versión 19.1R2 de Junos OS y versiones posteriores en el mismo tren de versión admiten todas las funciones documentadas en esta sección.

18.4R2-S2

Los conmutadores QFX5110 y QFX5120-48Y, y los enrutadores MX que ejecutan la versión 18.4R2-S2 de Junos OS y versiones posteriores en el mismo tren de versión admiten todas las funciones documentadas en esta sección.