Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Cómo configurar una columna colapsada con multiconexión EVPN

Requisitos

En este ejemplo se supone que tiene dos centros de datos (DC1 y DC2) con redes independientes. En este ejemplo se utilizan los siguientes dispositivos y software:

  • DC1:

    • Dos conmutadores spine: QFX5120-48Y con Junos OS versión 18.4R2-S1.4

    • Dos conmutadores ToR: EX4300-48T con Junos OS versión 18.1R3-S6.1

    • Dos dispositivos de seguridad: dispositivos SRX345 con Junos OS versión 18.2R3.4 (configuración complementaria opcional)

    • Cuatro servidores

  • DC2:

    • Dos conmutadores spine: QFX5120-48Y con Junos OS versión 18.4R2-S1.4

    • Dos conmutadores ToR: EX4300-48T con Junos OS versión 18.1R3-S6.1

    • Dos servidores

Cada par de conmutadores ToR ya debería estar configurado como un chasis virtual. Consulte Descripción del chasis virtual de la serie EX para obtener más información acerca de cómo formar un chasis virtual con conmutadores EX4300. Esta configuración de ejemplo utiliza vínculos Ethernet agregados de múltiples conexiones entre el chasis virtual ToR y los dos dispositivos spine en un solo miembro del chasis virtual. Si es posible, para una mejor resistencia, puede conectar los vínculos Ethernet agregados de multiconexión entre el Virtual Chassis y los dispositivos spine mediante interfaces de diferentes miembros de Virtual Chassis.

Visión general

Utilice este ejemplo para configurar una arquitectura de spine colapsada con multiconexión EVPN de los conmutadores ToR. Tenemos dos centros de datos con una configuración opcional de interconexión del centro de datos (DCI), un clúster SRX opcional para mayor seguridad y una configuración opcional de relé DHCP. En este ejemplo de configuración se muestra cómo configurar esta arquitectura en DC1. Puede utilizar una configuración similar en DC2.

Topología

En este despliegue, hay dos centros de datos: DC1 y DC2. Las redes del centro de datos se configuran con una arquitectura de spine colapsada que utiliza QFX5120 como conmutadores de spine. En este caso, le recomendamos que limite la estructura EVPN-VXLAN al centro de datos local.

Opcionalmente, puede conectar los centros de datos utilizando DCI de capa 3 en la capa subyacente. Este caso de uso no requiere un tramo de capa 2 entre los centros de datos. El tráfico entre centros de datos es solo de capa 3 y se enruta a través del clúster SRX en DC1 para una inspección avanzada.

La figura 1 muestra la conectividad lógica entre los componentes utilizados en este NCE.

Figura 1: Topología Logical Topology lógica

Hay dos inquilinos en DC1: JNPR1 y JNPR2. Cualquier tráfico entre inquilinos entre JNPR1 y JNPR2 en DC1 se enruta a través del clúster de firewall SRX por motivos de seguridad.

  • DC1:

    • Las VLAN 201 y 202 pertenecen a JNPR1.

    • Las VLAN 211 y 212 pertenecen a JNPR2.

    • DC1 tiene servidores en las VLAN 201, 202, 211 y 212.

  • DC2:

    • Las VLAN 221 y 222 pertenecen al inquilino predeterminado, que es el mismo que la instancia de enrutamiento predeterminada.

    • DC2 tiene servidores en las VLAN 221 y 222.

La figura 2 muestra la conectividad física entre los componentes utilizados en este NCE.

Figura 2: Topología Physical Topology física

Antes de empezar

Debe implementar alguna configuración básica en sus dispositivos antes de configurar la estructura.

Procedimiento

Procedimiento paso a paso

  1. De forma predeterminada, no se crean interfaces Ethernet agregadas. Debe establecer el número de interfaces Ethernet agregadas antes de poder configurarlas. Una vez establecido el recuento de dispositivos, el sistema creará ese número de interfaces Ethernet agregadas vacías, cada una con una dirección MAC única globalmente. Puede crear más interfaces Ethernet agregadas aumentando el número de dispositivos al número de interfaces ESI-LAG necesarias en el dispositivo.

    Establezca el número de interfaces Ethernet agregadas en todos los conmutadores spine y ToR.

  2. Los puertos 0 a 47 en un QFX5120-48Y funcionan como puertos de 10 gigabits de forma predeterminada. Los dispositivos SRX solo admiten 1 gigabit. Configure los puertos de Spine 1 y Spine 2 que están conectados al firewall de la serie SRX para que sean puertos de 1 gigabit. En este caso, estos puertos son ge-0/0/10 y ge-0/0/11. Para habilitar 1 gigabit en estos puertos, configure la velocidad del primer puerto del quad, que en este caso es ge-0/0/8.

    Use la siguiente instrucción en Spine 1 y Spine 2:

    Nota:

    Puede configurar las velocidades de los puertos de 1 gigabit y 25 gigabits solo por quad (grupo de cuatro puertos) y no individualmente. Todos los puertos operan a una sola velocidad dentro del quad. Por ejemplo, si configura los puertos 8 a 11 para que funcionen como puertos Ethernet de 1 gigabit e inserta un transceptor SFP+ de 10 gigabits en el puerto 10, no se crea una interfaz para este puerto.

  3. El modo de detección automática de velocidad detecta interfaces Ethernet de 100 gigabits y Ethernet de 40 gigabits y las canaliza automáticamente. La canalización automática y la detección de velocidad están habilitadas de forma predeterminada. En este ejemplo, la canalización automática dividiría cada interfaz Ethernet de 40 gigabits en cuatro interfaces Ethernet de 10 gigabits.

    Desactive la canalización automática en los puertos et-0/0/2 y et-0/0/31 en Spine 3 y en los puertos et-0/0/49 y et-0/0/50 en Spine 4 para que sigan siendo interfaces Ethernet de 40 gigabits.

    Columna vertebral 3:

    Columna vertebral 4:

Configurar la base subyacente

En esta topología, la estructura IP solo se encuentra entre los dos conmutadores spine, como se muestra en la figura 3. Los dos conmutadores spine establecen un emparejamiento EBGP sobre los vínculos punto a punto para intercambiar direcciones de circuito cerrado entre sí.

Figura 3: Topología IP Fabric Topology de la estructura de IP

Configurar Spine 1

Procedimiento paso a paso

  1. Configure las interfaces en Spine 1.

  2. Configure la base de EBGP.

  3. Configure las directivas de importación y exportación.

  4. Active ECMP y la protección de reenrutamiento rápido ECMP. Habilite el equilibrio de carga por flujo, lo que hace con la per-packet palabra clave.

    Si un vínculo deja de funcionar, ECMP utiliza la protección de reenrutamiento rápido para cambiar el reenvío de paquetes a vínculos operativos, lo que disminuye la pérdida de paquetes. La protección de reenrutamiento rápido actualiza los conjuntos ECMP para la interfaz sin tener que esperar a que se actualice la tabla de rutas. Cuando se produzca la próxima actualización de la tabla de rutas, se puede agregar un nuevo conjunto de ECMP con menos vínculos o la ruta puede apuntar a un único salto siguiente.

  5. De forma predeterminada, el temporizador de antigüedad ARP se establece en 20 minutos y el temporizador de antigüedad de MAC se establece en 5 minutos. Para evitar problemas de sincronización con entradas de enlace MAC y MAC-IP en un entorno EVPN-VXLAN, configure la antigüedad de ARP para que sea más rápida que la antigüedad de MAC.

Configurar Spine 2

Procedimiento paso a paso

Repita la configuración desde Spine 1 en Spine 2.

  1. Configure las interfaces en Spine 2.

  2. Configure la base de EBGP.

  3. Configure las directivas de importación y exportación.

  4. Active ECMP y la protección de reenrutamiento rápido ECMP.

  5. Para evitar problemas de sincronización con entradas de enlace MAC y MAC-IP en un entorno EVPN-VXLAN, configure la antigüedad de ARP para que sea más rápida que la antigüedad de MAC.

Comprobar la capa subyacente

Procedimiento paso a paso

  1. Compruebe que ambas sesiones de vecino de BGP estén establecidas en la columna vertebral 1.

  2. Compruebe que la dirección de bucle invertido de Spine 2 (192.168.255.12) es recibida por Spine 1 de ambas sesiones de vecinos de BGP.

  3. Haga ping al loopback del otro dispositivo de columna vertebral desde Spine 1.

Configurar la superposición

En esta sección se muestra cómo configurar la superposición. Incluye emparejamientos de IBGP y las asignaciones de VLAN a VXLAN para las redes virtuales.

Configurar Spine 1

Procedimiento paso a paso

  1. Configure el emparejamiento de IBGP entre las direcciones de circuito cerrado de Spine 1 y Spine 2.

  2. Configure las VLAN y la asignación de VLAN a VXLAN.

  3. Configure las siguientes opciones de conmutador:

    • La interfaz de origen del punto de conexión del túnel virtual (VTEP). Esta es la dirección de circuito cerrado en Spine 1.

    • El distinguidor de ruta para las rutas generadas por este dispositivo.

    • El destino de la ruta.

    Las rutas EVPN de tipo 1 utilizan el destino de ruta configurado en vrf-target . Las rutas EVPN de tipo 2 y tipo 3 usan el destino de ruta por VNI derivado automáticamente para la exportación y la importación.

  4. Configure el protocolo EVPN. En primer lugar, configure VXLAN como encapsulación del plano de datos para EVPN.

    A continuación, configure las VNI que forman parte de este dominio EVPN-VXLAN MP-BGP. Utilícelo set protocols evpn extended-vni-list all para configurar todos los VNI o configure cada VNI por separado, como se muestra a continuación.

  5. Si el centro de datos solo tiene dos conmutadores de spine que solo tienen sesiones de vecinos de BGP entre sí, debe deshabilitar el aislamiento de núcleo en ambos conmutadores de spine. De lo contrario, si un conmutador de spine deja de funcionar, el otro conmutador de spine pierde todas las sesiones de vecino de BGP, lo que coloca los puertos orientados hacia ToR en modo de espera LACP y provoca una pérdida de tráfico completa. Consulte Estado del cerebro dividido y Descripción de cuándo deshabilitar el aislamiento del núcleo EVPN-VXLAN para obtener más información.

Configurar Spine 2

Procedimiento paso a paso

  1. Para evitar problemas de sincronización con entradas de enlace MAC y MAC-IP en un entorno EVPN-VXLAN, configure la antigüedad de ARP para que sea más rápida que la antigüedad de MAC.

  2. Configure el emparejamiento de IBGP.

  3. Configure las VLAN y la asignación de VLAN a VXLAN.

  4. Configure las siguientes opciones de conmutador.

  5. Configure el protocolo EVPN.

    A continuación, configure las VNI que forman parte de este dominio EVPN-VXLAN MP-BGP. Utilícelo set protocols evpn extended-vni-list all para configurar todos los VNI o configure cada VNI por separado, como se muestra a continuación.

  6. Si el centro de datos solo tiene dos conmutadores spine que solo tienen sesiones de vecino BGP entre sí, debe deshabilitar el aislamiento de núcleo en ambos conmutadores spine.

Comprobar la superposición

Procedimiento paso a paso

  1. Verifique que se haya establecido el emparejamiento de IBGP entre Spine 1 y Spine 2.

  2. Compruebe el VTEP de origen para el dominio EVPN.

  3. Compruebe todos los VTEP de origen y VTEP remotos.

Configurar y segmentar la capa 3

Configurar Spine 1

Procedimiento paso a paso

  1. Configure las opciones de enrutamiento y reenvío.

    Nota:

    Cambiar las opciones de enrutamiento y reenvío como next-hop, overlay-ecmpo chained-composite-next-hop hace que el motor de reenvío de paquetes se reinicie, lo que interrumpe todas las operaciones de reenvío.

    • Establezca el número de saltos siguientes en al menos el número esperado de entradas ARP en la superposición. Consulte Siguiente salto (enrutamiento VXLAN) para obtener más información acerca de la configuración vxlan-routing next-hopde .

    • Habilite los próximos saltos de múltiples rutas de dos niveles y de igual costo mediante la overlay-ecmp instrucción. Esta instrucción es necesaria para una red superpuesta EVPN-VXLAN de capa 3 cuando también está configurado el enrutamiento puro de tipo 5. Se recomienda encarecidamente configurar esta instrucción cuando estén habilitadas las rutas puras de tipo 5.

    • La chained-composite-next-hop configuración es imprescindible para EVPN puro Tipo 5 con encapsulación VXLAN. Sin esto, el PFE no configurará el próximo salto del túnel.

    • Configure el ID del enrutador para que sea el mismo que la dirección IP de circuito cerrado utilizada como origen de VTEP y la dirección local del BGP de superposición.

  2. Para habilitar la función de puerta de enlace predeterminada, configure interfaces IRB con una dirección IP única y una dirección de puerta de enlace virtual (VGA), que debe ser una dirección IP de cualquier difusión. Cuando se especifica una dirección IPv4 para VGA, la puerta de enlace VXLAN de capa 3 genera automáticamente 00:00:5e:00:01:01 como dirección MAC. En este ejemplo se muestra cómo configurar manualmente la dirección MAC de la puerta de enlace virtual. Configure la misma dirección MAC de puerta de enlace virtual en ambos dispositivos spine para un IRB determinado.

    Nota:

    Si la dirección IP VGA es inferior a la dirección IP IRB, debe usar la preferred opción en la configuración IRB como se muestra en este ejemplo.

  3. Configurará las mismas direcciones IP y MAC IRB anycast en las interfaces IRB de cada dispositivo spine. Dado que los dispositivos spine actúan como dispositivos spine y leaf en una arquitectura spine colapsada, son los únicos dispositivos que necesitan saber acerca de las interfaces IRB. Desactive el anuncio de las interfaces IRB a los otros dispositivos.

  4. Coloque los IRB que pertenecen a los diferentes inquilinos en sus respectivas instancias de enrutamiento. Esto permite que los IRB de las mismas instancias de enrutamiento compartan una tabla de enrutamiento. Como resultado, los IRB de una instancia de enrutamiento pueden enrutarse entre sí. Los IRB en diferentes instancias de enrutamiento pueden comunicarse entre sí a través de un ejecutor de políticas de seguridad externo, como firewalls SRX, o si filtramos rutas explícitamente entre las instancias de enrutamiento.

  5. Configure VNI de tipo 5 para las instancias de enrutamiento. Al configurar una instancia de enrutamiento para EVPN-VXLAN, debe incluir una interfaz de circuito cerrado y su dirección IP. Si omite la interfaz de circuito cerrado y la dirección IP asociada, no se podrán procesar los paquetes de control EVPN.

Configurar Spine 2

Procedimiento paso a paso

  1. Configure las opciones de enrutamiento y reenvío.

    Nota:

    Cambiar las opciones de enrutamiento y reenvío como next-hop, overlay-ecmpo chained-composite-next-hop hace que el motor de reenvío de paquetes se reinicie, lo que interrumpe todas las operaciones de reenvío.

  2. Configure IRB.

  3. Dado que ha configurado las mismas direcciones IP y MAC IRB anycast en las interfaces IRB de ambos conmutadores spine, desactive la publicidad de las interfaces IRB a otros dispositivos.

  4. Coloque los IRB que pertenecen a los diferentes inquilinos en sus respectivas instancias de enrutamiento.

  5. Configure VNI de tipo 5 para las instancias de enrutamiento.

Configurar la multiconexión de EVPN para los conmutadores ToR

La multiconexión de EVPN utiliza ESI. Un ESI es un atributo obligatorio que habilita la multiconexión del servidor LAG de EVPN. Los valores ESI se codifican como enteros de 10 bytes y se utilizan para identificar un segmento de host múltiple. El mismo valor ESI habilitado en todos los conmutadores spine conectados a un conmutador ToR forma un LAG EVPN. Este LAG de EVPN admite la multiconexión activa-activa hacia el conmutador ToR.

Los conmutadores ToR (implementados como ToR Virtual Chassis en este ejemplo) utilizan un LAG para conectarse a los dos conmutadores spine. Como se muestra en la figura 4, ToR1 está conectado a los conmutadores de la columna vertebral con LAG ae1. Este LAG en los conmutadores spine está habilitado por la función de multiconexión de EVPN.

Figura 4: Configuración de multiconexión de EVPN para ToR 1 EVPN Multihoming Configuration for ToR 1

Configurar Spine 1

Procedimiento paso a paso

  1. De forma predeterminada, no se crean interfaces Ethernet agregadas. Debe establecer el número de interfaces Ethernet agregadas en el conmutador antes de poder configurarlas.

  2. Configure una ESI. Configúrelo igual en ambos interruptores de columna vertebral. Habilite todos los modos activos.

    Nota:

    También puede derivar ESI automáticamente. En este ejemplo, se configura ESI manualmente.

  3. Configure el ID de sistema LACP. Establézcalo igual en ambos conmutadores de spine para indicar a los conmutadores de ToR que los enlaces ascendentes a los dos conmutadores de spine pertenecen al mismo paquete de LAG. Como resultado, los conmutadores ToR colocan los vínculos ascendentes a los dos conmutadores spine en el mismo paquete LAG y cargan el tráfico compartido entre los vínculos miembro.

  4. Configure la interfaz física en la spine 1 conectada a ToR 1 como miembro del LAG ae1.

Configurar Spine 2

Procedimiento paso a paso

  1. Establezca el número de interfaces Ethernet agregadas en el conmutador.

  2. Configure una ESI. Configúrelo igual en ambos interruptores de columna vertebral. Habilite todos los modos activos.

  3. Configure el ID del sistema LACP. Configúrelo igual en ambos conmutadores de columna vertebral.

  4. Configure la interfaz física en la spine 2 conectada a ToR 1 como miembro del LAG ae1.

Configurar ToR 1

Procedimiento paso a paso

  1. De forma predeterminada, no se crean interfaces Ethernet agregadas. Debe establecer el número de interfaces Ethernet agregadas en el conmutador antes de poder configurarlas.

  2. Configure las interfaces Ethernet agregadas.

  3. Configure las VLAN.

Verificar multiconexión de EVPN

Procedimiento paso a paso

  1. Compruebe el estado de ae1 y el ESI asociado al LAG.

  2. Verifique que los miembros de ae1 estén recolectando y distribuyendo.

  3. Compruebe que el estado de la multiconexión de EVPN en la instancia de EVPN está Resolved en la columna vertebral 1. También puede ver qué conmutador de columna vertebral es el reenviador designado para el tráfico de BUM.

  4. Compruebe que todos los vínculos de miembro de la interfaz ae1 se recopilan y distribuyen en ToR 1.

Configurar la multiconexión para los servidores

Multihome los servidores al chasis virtual ToR para redundancia y uso compartido de carga. Los servidores utilizan LAG para conectarse a los dos conmutadores miembro del chasis virtual ToR.

Como se muestra en la figura 5, el extremo 1 está conectado al chasis virtual de ToR a través de LAG ae5 y pertenece al inquilino JNPR_1. El punto de conexión 11 está conectado al chasis virtual ToR a través de LAG ae6 y pertenece al inquilino JNPR_2.

Figura 5: Topología Multihomed Server Topology de servidor multihost

Configurar ToR 1

Procedimiento paso a paso

Dado que los conmutadores ToR se configuran en un Virtual Chassis, sólo tiene que confirmar la configuración en el conmutador principal. En este ejemplo, ToR 1 es el conmutador principal.

  1. Configure LAG en las interfaces conectadas al punto de conexión 1: interfaz xe-0/2/10 en ToR 1 e interfaz xe-1/2/10 en ToR 2. El punto de conexión 1 pertenece a las VLAN 201 y 202.

  2. Configure LAG en las interfaces conectadas al punto de conexión 11. El punto de conexión 11 pertenece a las VLAN 211 y 212.

Comprobar la conectividad del servidor

Utilice esta sección para comprobar que los servidores están conectados entre sí a través de los conmutadores ToR y spine. La forma de hacerlo depende de si forman parte de la misma VLAN o de dos VLAN diferentes.

Nota:

Se recomienda multiconexión de los servidores a los conmutadores ToR para obtener redundancia y uso compartido de carga, tal como se describe en la sección anterior. En esta sección se muestran los servidores de base única para simplificar.

Verificar la conectividad del servidor dentro de VLAN

Procedimiento paso a paso

  1. Compruebe que las direcciones MAC de ambos puntos de conexión aparecen en la tabla de conmutación Ethernet de ambos conmutadores ToR.

  2. Verifique que las dos direcciones MAC aparezcan en la tabla Conmutación Ethernet de ambos conmutadores spine. Las dos direcciones MAC se aprenden de los conmutadores ToR a través del LAG (ae1 y ae2) conectado a cada conmutador ToR. Los indicadores MAC , e DLR indican si el tráfico de DLDRla dirección MAC fue aprendido localmente por el conmutador spine, por el conmutador spine remoto o por ambos conmutadores spine.

  3. Verifique que la primera dirección MAC esté en la base de datos de EVPN en Spine 1. Este resultado indica que la dirección MAC fue aprendida localmente por este conmutador spine a través del ESI 00:00:00:00:00:00:00:01:02 y LAG ae2. Esta dirección MAC se anuncia en EVPN al otro conmutador spine.

  4. Verifique que la segunda dirección MAC esté en la base de datos EVPN en Spine 1. Esta dirección MAC fue aprendida por el conmutador remoto de spine y se anunció al conmutador spine local a través de EVPN. Esta salida también muestra que esta dirección MAC está asignada a ESI 00:00:00:00:00:00:00:00:01:01. El tráfico destinado a esta dirección MAC se puede cambiar localmente a ToR 1 utilizando el mismo segmento Ethernet.

  5. Verifique las rutas de EVPN en Spine 1. Este resultado muestra que los conmutadores spine anuncian estas direcciones MAC como rutas BGP.

  6. Verifique las rutas de EVPN en Spine 2. Esta salida muestra las rutas BGP que recibieron el emparejamiento de IBGP con Spine 1. Veamos estas rutas en detalle.

    Las dos rutas de tipo 1 enfatizadas anteriormente muestran que Spine 1 está conectado a dos segmentos Ethernet (ES). Los números ESI son 0101 y 0102.

    Estas dos rutas son de tipo 2 que se muestran arriba anunciadas por Spine 1. Muestran que se puede acceder a las dos direcciones MAC desde Spine 1.

  7. Verifique el plano de control para las siguientes direcciones MAC en Spine 1.

  8. Verifique las entradas de la tabla de reenvío para estas direcciones MAC en Spine 1. El siguiente resultado muestra que la interfaz Ethernet agregada local se utiliza para conmutar el tráfico destinado a estas direcciones MAC.

  9. Pruebe lo que sucede cuando falla un enlace ascendente. Si se produce un error en un vínculo ascendente de ToR 1, el resultado muestra que el estado de esa interfaz es Detached.

    La figura 6 muestra la topología cuando la interfaz conectada a ToR 1 en la spine 1 está inactiva.

    Figura 6: Topología cuando falla Topology When Uplink Fails el enlace ascendente

    Verifique que Spine 1 esté aprendiendo esta dirección MAC de Spine 2, ya que Spine 1 no tiene una conexión directa a ToR 1.

    Los detalles de la tabla de reenvío en Spine 1 muestran que el tráfico destinado a esta dirección MAC se envía a Spine 2.

Verificar la conectividad del servidor entre VLAN

Procedimiento paso a paso

  1. En Spine 1, verifique que las dos direcciones MAC estén en VLAN diferentes.

  2. En la columna vertebral 1, compruebe la resolución ARP de los dos extremos.

  3. En Spine 1, compruebe el aprendizaje del plano de control para la dirección MAC 00:10:94:00:11:11. Puede ver que hay una ruta MAC para la dirección MAC y una ruta MAC/IP para esta dirección MAC.

  4. Compruebe las entradas de la tabla de reenvío para estas direcciones MAC. Dado que Spine 1 está conectado a ambos conmutadores ToR localmente, el tráfico se conmuta localmente al conmutador ToR correspondiente desde Spine 1.

¿Qué sigue?

Ha configurado y verificado una arquitectura de spine colapsada para su primer centro de datos. Si es necesario, repita la configuración en los dispositivos del segundo centro de datos.

Vaya a la página siguiente para configurar la seguridad avanzada y conectar sus centros de datos.

Estado de cerebro dividido

Cómo prevenir un estado de cerebro dividido

Problema

Si los vínculos entre los conmutadores de columna vertebral no funcionan, lo que provoca que el emparejamiento BGP deje de funcionar, ambos conmutadores de columna vertebral están activos y reenviando. Las interfaces Ethernet agregadas descendentes están activas y reenviando. Este escenario se conoce como un estado de cerebro dividido y puede causar múltiples problemas.

Solución

Para evitar que se produzca este problema, elija un conmutador de columna vertebral para que sea el interruptor de espera.

También recomendamos:

  • Usar al menos dos enlaces entre los interruptores de la columna vertebral. Esto hace que sea menos probable que todos los enlaces entre los interruptores de la columna vertebral se caigan.

  • Multiconexión de todos los servidores. Si hay un servidor de base única en uno de los conmutadores spine, es posible que no se pueda acceder al servidor.

¿Qué sigue?

Ha configurado y verificado una arquitectura de spine colapsada para su primer centro de datos. Si es necesario, repita la configuración en los dispositivos del segundo centro de datos.

Vaya a la página siguiente para configurar la seguridad avanzada y conectar sus centros de datos.