Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Descripción de las características y requisitos de DCB

El puente del centro de datos (DCB) es un conjunto de mejoras a las especificaciones del puente IEEE 802.1. DCB modifica y extiende el comportamiento de Ethernet para admitir la convergencia de E/S en el centro de datos. La convergencia de E/S incluye, pero no se limita al transporte de tráfico LAN Ethernet y el tráfico de red de área de almacenamiento (SAN) de canal de fibra (FC) en la misma infraestructura de red Física Ethernet.

Una arquitectura convergente ahorra costos al reducir la cantidad de redes y conmutadores necesarios para admitir ambos tipos de tráfico, reducir la cantidad de interfaces necesarias, reducir la complejidad de los cables y las actividades de administración.

Los conmutadores serie QFX y EX4600 de Juniper Networks son compatibles con las funciones de DCB necesarias para transportar Ethernet convergente y el tráfico de FC, a la vez que proporcionan la clase de servicio (CoS) y otras características FC requiere para la transmisión del tráfico de almacenamiento. Para adaptarse al tráfico FC, las especificaciones de DCB proporcionan:

  • Un mecanismo de control de flujo llamado control de flujo basado en prioridades (PFC, descrito en IEEE 802.1Qbb) para ayudar a proporcionar un transporte sin pérdidas.

  • Un protocolo de descubrimiento e intercambio para transmitir configuración y capacidades entre vecinos para garantizar una configuración coherente en toda la red, llamado protocolo de intercambio de capacidades de puente de centro de datos (DCBX), que es una extensión del protocolo de datos de capa de vínculo (LLDP, descrito en IEEE 802.1AB).

  • Un mecanismo de administración de ancho de banda llamado selección mejorada de transmisión (ETS, descrito en IEEE 802.1Qaz).

  • Un mecanismo de administración de congestión llamado notificación de congestión cuantificada (QCN, descrito en IEEE 802.1Qau).

El conmutador es compatible con los estándares PFC, DCBX y ETS, pero no es compatible con QCN. El conmutador también proporciona las interfaces de alto ancho de banda (mínimo de 10 Gbps) necesarias para admitir DCB y tráfico convergente.

En este tema se describen los estándares y requisitos de DCB que admite el conmutador:

Transporte sin pérdidas

FC tráfico requiere un transporte sin pérdidas (definido como que no se pierden tramas debido a la congestión). Ethernet estándar no admite transporte sin pérdidas, pero las extensiones de DCB para Ethernet junto con una administración adecuada de búfer permiten que una red Ethernet proporcione el nivel de clase de servicio (CoS) necesario para transportar FC tramas encapsuladas en Ethernet a través de una red Ethernet.

En esta sección, se describen estos factores para crear un transporte sin pérdidas a través de Ethernet:

PFC

PFC es un mecanismo de control de flujo a nivel de vínculo similar a Ethernet PAUSE (descrito en IEEE 802.3x). Ethernet PAUSE detiene todo el tráfico en un vínculo durante un período de tiempo. PFC le permite dividir el tráfico en un vínculo en ocho prioridades y detener el tráfico de una prioridad seleccionada sin detener el tráfico asignado a otras prioridades en el vínculo.

La pausa del tráfico de una prioridad seleccionada le permite proporcionar un transporte sin pérdidas para el tráfico asignado a esa prioridad y, al mismo tiempo, usar transporte Ethernet con pérdidas estándar para el resto del tráfico del vínculo.

Administración de búfer

La administración de búferes es fundamental para el buen funcionamiento de PFC, ya que si se permite que los búferes se desborden, se pierden las tramas y el transporte no tiene pérdidas.

Para cada prioridad de flujo sin pérdidas, el conmutador requiere suficiente espacio de búfer para:

  • Almacene tramas enviadas durante el tiempo necesario para enviar la trama de pausa de PFC a través del cable entre dispositivos.

  • Almacene las tramas que ya están en el cable cuando el remitente recibe la trama de pausa de PFC.

El retraso de propagación debido a la longitud y velocidad del cable, así como la velocidad de procesamiento, determina la cantidad de espacio de memoria intermedia necesario para evitar la pérdida de trama debido a la congestión.

El conmutador establece automáticamente el umbral para enviar tramas de pausa de PFC para admitir retrasos de cables de hasta 150 metros (492 pies) y para acomodar marcos grandes que podrían estar en el cable cuando el conmutador envía el marco de pausa. Esto garantiza que el conmutador envíe tramas de pausa lo suficientemente temprano como para permitir que el remitente deje de transmitir antes de que los búferes de recepción se desborden en el conmutador.

Interfaces físicas

Los conmutadores de la serie QFX admiten interfaces de dúplex completo de 10 Gbps o más rápidas. El conmutador solo permite la capacidad de DCB en interfaces Ethernet de 10 Gbps o más rápidas.

ETS

PFC divide el tráfico en hasta ocho flujos independientes (prioridades, configuradas en el conmutador como clases de reenvío) en un vínculo físico. ETS le permite administrar el ancho de banda del vínculo de la siguiente manera:

  • Agrupación de las prioridades en grupos de prioridad (configurados en el conmutador como conjuntos de clases de reenvío).

  • Especificar el ancho de banda disponible para cada uno de los grupos de prioridad como un porcentaje del ancho de banda total del vínculo disponible.

  • Asignar el ancho de banda a las prioridades individuales del grupo de prioridades.

El ancho de banda del vínculo disponible es el ancho de banda que queda después de atender colas estrictas de alta prioridad. En los conmutadores QFX5200, QFX5100, EX4600, QFX3500 y QFX3600, y en los sistemas QFabric, recomendamos que siempre configure una velocidad de modelado para limitar la cantidad de ancho de banda que puede consumir una cola de prioridad estricta alta al incluir la shaping-rate instrucción en la [edit class-of-service schedulers] jerarquía en el programador de prioridad estricta-alta. Esto evita que una cola estricta de prioridad alta pase a perder otras colas en el puerto. (En conmutadores QFX10000, configure una velocidad de transmisión en colas de prioridad estricta y alta para establecer una cantidad máxima de ancho de banda para el tráfico de prioridad estricta a alta).

Administrar el ancho de banda de los vínculos con ETS ofrece varias ventajas:

  • Existe una administración uniforme de todos los tipos de tráfico en el vínculo, tanto el tráfico administrado por congestión como el tráfico ethernet estándar.

  • Cuando un grupo de prioridad no utiliza todo el ancho de banda asignado, otros grupos de prioridad en el vínculo pueden usar ese ancho de banda según sea necesario.

    Cuando una prioridad de un grupo de prioridad no utiliza todo el ancho de banda asignado, otras prioridades del grupo pueden usar ese ancho de banda.

    El resultado es una mejor utilización del ancho de banda, ya que las prioridades que consisten en tráfico con ráfagas pueden compartir el ancho de banda durante los períodos de transmisión de tráfico bajo, en lugar de consumir toda su asignación de ancho de banda cuando las cargas de tráfico son ligeras.

  • Puede asignar tipos de tráfico con diferentes necesidades de servicio a diferentes prioridades para que cada tipo de tráfico reciba el tratamiento adecuado.

  • El tráfico de prioridad estricta conserva su ancho de banda asignado.

DCBX

Los dispositivos DCB usan DCBX para intercambiar información de configuración con pares conectados directamente (conmutadores y puntos de conexión, como servidores). DCBX es una extensión de LLDP. Si deshabilita LLDP en una interfaz, esa interfaz no puede ejecutar DCBX. Si intenta habilitar DCBX en una interfaz en la que LLDP está deshabilitado, se produce un error en la confirmación de configuración.

DCBX puede:

  • Descubra las capacidades de DCB de los pares.

  • Detecte errores de configuración de funciones de DCB o discordancias entre pares.

  • Configure las funciones de DCB en pares.

Puede configurar la operación de DCBX para PFC, ETS y para aplicaciones de capa 2 y capa 4, como FCoE e iSCSI. DCBX está habilitado o deshabilitado según la interfaz.