Ejemplo: Configuración de la propagación TTL de MPLS para LSP con señal de LDP
Descripción general
La siguiente figura muestra un escenario típico en el que la no-propagate-ttl
instrucción en la [edit protocol ldp]
jerarquía es beneficiosa.
Topología

En la figura, puede ver dos nubes LDP nativas conectadas por una red troncal con LDPoRSVP.
- Desde el enrutador R1, los paquetes se encapsulan con la etiqueta LDP y se envían al R7 de destino.
- En el enrutador R3, la etiqueta LDP de un paquete se quita a un paquete IP. Luego, el paquete se encapsula con LDP a través de RSVP (LDPoRSVP) y se envía a través de la red troncal.
- En el enrutador R5, las etiquetas LDPoRSVP se eliminan a un paquete IP, luego el paquete se encapsula de nuevo en la etiqueta LDP y se envía al destino.
Propósito
El propósito es realizar las siguientes acciones:
- Ocultar las dos nubes de LDP sin propagación TTL
- Mostrar la red troncal (LDPoRSVP)
Cuando se envía un paquete del enrutador R1 al R7, estas acciones se deben realizar en dos enrutadores, R1 y R5. No puede lograr esto con las opciones existentes. Por ejemplo, cuando usa la opción global (set protocol mpls no-propagate-ttl
) en el enrutador R5, deshabilita la red troncal ldPoRSVP de propagación TTL en la dirección inversa (R7-R1). Esto sucede porque la opción es aplicable tanto para LDP como para RSVP.
Caso de uso para el TTL sin propagación y el comportamiento propagar TTL en LDP
El LDP en el enrutador R3 debe admitir tanto la no propagación de TTL como el comportamiento de propagación de TTL.
Desde el enrutador R3 con LDPoRSVP, en la dirección R4, el enrutador debe admitir el comportamiento de propagación TTL. Sin embargo, hacia el LDP nativo (enrutador R2), el LDP debe admitir el comportamiento TTL de no propagación.
Para lograr este resultado, hemos introducido una nueva opción, no-propagate-ttl
bajo LDP que debe configurar para los enrutadores R3 y R5. Esta opción deshabilita la propagación de TTL para rutas LDP.
En un escenario LDPoRSVP, el comportamiento de propagación depende de la opción RSVP sin decremento TTL (no-decrement-ttl
).
- Si configura la opción en el
no-propagate-ttl
escenario LDPoRSVP y el TTL sin decremento (no-decrement-ttl
) no está configurado, la propagación de TTL se lleva a cabo.Por ejemplo:
En el enrutador R3, en el caso de la situación LDPoRSVP, si establece la siguiente configuración, se lleva a cabo la propagación TTL.
user@host> set protocol ldp no-propagate-ttl
- Si configura la opción a través del
no-decrement-ttl
LSP entre el enrutador R3 y el R5, la propagación TTL está deshabilitada.Por ejemplo, en el enrutador R3:
user@host> set protocol ldp no-propagate-ttl user@host> set protocol mpls no-decrement-ttl
En el enrutador R1, los paquetes se encapsulan con la etiqueta LDP con TTL 255, ya que cualquiera de la no-propagate-ttl
CLI está configurada.
En el enrutador R3:
- La etiqueta LDP de un paquete se quita a un encabezado IP y el TTL no se copia de la etiqueta LDP al encabezado IP.
- El paquete se encapsula con etiquetas LDPoRSVP y se envía a través de la red troncal.
- La nueva opción
ldp no-propagate-ttl
conno-decrement-tll
decide si el TTL debe propagarse o no. - La
no-decrement-ttl
opción no está configurada, por lo que se produce la propagación habitual de TTL
En el enrutador R5, las etiquetas LDPoRSVP se quitan al encabezado IP. La nueva opción está configurada para ser compatible no-propagate-ttl
con el protocolo LDP, y el paquete IP se encapsula con una etiqueta LDP con TTL 255 y se envía a través de.
Configuración
Configuración rápida de CLI
Para configurar rápidamente este ejemplo, copie los siguientes comandos, péguelos en un archivo de texto, elimine los saltos de línea, cambie los detalles necesarios para que coincidan con su configuración de red y, luego, copie y pegue los comandos en la CLI en el nivel de jerarquía [edit].
set protocol ldp no-propagate-ttl
Resultados
Hemos modificado la salida del comando show ldp overview
de CLI para mostrar la configuración TTL.
Compruebe los resultados de la configuración:
user@host> show ldp overview Instance: master Reference count: 4 Router ID: 10.1.1.1 Inet LSR ID: 10.1.1.4 Inet6 LSR ID: 10.1.1.6 LDP inet: enabled LDP inet6: enabled Transport preference: Single-stack Message id: 21 Configuration sequence: 1 Deaggregate: disabled Explicit null: disabled IPv6 tunneling: disabled Strict targeted hellos: disabled Loopback if added: yes Route preference: 9 Unicast transit LSP chaining: disabled P2MP transit LSP chaining: disabled Transit LSP statistics based on route statistics: disabled LDP route acknowledgement: enabled BGP export: enabled No TTL propagate: enabled LDP mtu discovery: disabled LDP SR Mapping Client: disabled Capabilities enabled: none Egress FEC capabilities enabled: entropy-label-capability Downstream unsolicited Sessions: Operational: 2 Retention: liberal Control: ordered Auto targeted sessions: Auto targeted: disabled Dynamic tunnel session count: 0 P2MP: Recursive route: disabled No rsvp tunneling: disabled Timers: Keepalive interval: 10, Keepalive timeout: 30 Link hello interval: 5, Link hello hold time: 15 Targeted hello interval: 15, Targeted hello hold time: 45 Label withdraw delay: 60, Make before break timeout: 30 Make before break switchover delay: 3 Link protection timeout: 120 Graceful restart: Restart: enabled, Helper: enabled, Restart in process: false Reconnect time: 60000, Max neighbor reconnect time: 120000 Recovery time: 160000, Max neighbor recovery time: 240000 Traffic Engineering: Bgp igp: disabled Both ribs: disabled Mpls forwarding: disabled IGP: Tracking igp metric: disabled Sync session up delay: 10 Session protection: Session protection: disabled Session protection timeout: 0 Interface addresses advertising: 10.1.1.1 10.100.2.1 10.101.2.1 10.1.1.4 10.1.1.6 10.53.85.142 2001:db8:1000:1:2::1 2001:db8:1001:1:2::1 2001:db8:1111::1 2001:db8:abcd::128:53:85:142 fe80:1:2::1 fe80:1001:1002::1 LDP Job: Read job time quantum: 1000, Write job time quantum: 1000 Read job loop quantum: 100, Write job loop quantum: 100 Backup inbound read job time quantum: 1000, Backup outbound read job time quantum: 1000 Backup inbound read job loop quantum: 100, Backup outbound read job loop quantum: 100 Label allocation: Current number of LDP labels allocated: 4 Total number of LDP labels allocated: 7 Total number of LDP labels freed: 3 Total number of LDP label allocation failure: 0 Current number of labels allocated by all protocols: 4