通道服务概述
通道服务概述
在传输协议内封装任意数据包后,隧道可以通过其他公共网络提供专用、安全的路径。隧道连接不连续子网并启用加密接口、虚拟专用网 (VPN) 和MPLS。如果在路由器或路由器中安装了通道物理接口 卡 (PIC M Series T Series,可以配置单播、组播和逻辑隧道。
您可以为 VPN 配置两种类型的隧道:一种用于简化路由表查找,另一种用于简化 VPN 路由和转发实例 (VRF) 表查找。
有关加密接口的信息,请参阅 配置加密接口 。有关 VPN 的信息,请参阅 路由 Junos OS VPN 库 。有关此MPLS的信息,请参阅 MPLS 应用程序用户指南 。
在 SRX 系列设备上,通用路由封装 (GRE) 和 IP-IP 隧道分别使用内部接口 gr-0/0/0 和 ip-0/0/0。该Junos OS在系统启动时创建这些接口;它们与物理接口没有关联
该瞻博网络 Junos OS支持下表中所示的隧道类型。
接口 |
描述 |
---|---|
|
可配置通用路由封装 (GRE) 接口。GRE 允许通过另一个路由协议封装一个路由协议。 在路由器内,数据包将路由到此内部接口,在此接口中,数据包首先使用 GRE 数据包封装,然后使用另一个协议数据包重新封装来完成 GRE。GRE 接口是仅内部接口,不与物理接口相关联。您必须配置接口,才能执行 GRE。 |
|
内部生成的 GRE 接口。此接口由 Junos OS生成,以处理 GRE。不能配置此接口。 |
|
可配置的 IP-over-IP 封装(也称为 IP 隧道)接口。IP 隧道允许通过另一个 IP 数据包封装一个 IP 数据包。 数据包路由到内部接口,然后通过 IP 数据包封装,然后转发至封装数据包的目标地址。IP-IP 接口是仅内部接口,不与物理接口相关联。您必须配置接口,才能执行 IP 隧道操作。 |
|
内部生成的 IP-over-IP 接口。此接口由 Junos OS生成,用于处理 IP-over-IP 封装。这不是可配置的接口 |
|
路由器 在 SRX 系列设备上 |
|
内部生成的组播通道接口。组播隧道过滤所有单播数据包;如果传入数据包不发 在路由器内,数据包被路由到此内部接口进行组播过滤。组播通道接口是仅内部接口,不与物理接口相关联。如果路由器具有通道服务 PIC |
|
内部生成的组播通道接口。此接口由 Junos OS生成,以处理组播通道服务。这不是可配置的接口 |
|
可配置协议无关组播 (PIM) 解封装接口。在 PIM 稀疏模式下,第一跳跃路由器封装发往会合点路由器的数据包。数据包使用单播标头封装,并通过单播隧道转发至联合点。随后,该会场对数据包进行解封装,并通过其组播树传输数据包。 在路由器内,数据包被路由到此内部接口进行解封装。PIM 解封装接口是仅内部接口,不与物理接口相关联。您必须为接口配置接口,才能执行 PIM 解封装。
注意:
在 SRX 系列设备上,此接口类型为 |
|
可配置的 PIM 封装接口。在 PIM 稀疏模式下,第一跳跃路由器封装发往会合点路由器的数据包。数据包使用单播标头封装,并通过单播隧道转发至联合点。随后,该会场对数据包进行解封装,并通过其组播树传输数据包。 在路由器内,数据包将路由到此内部接口以封装。PIM 封装接口是仅内部接口,不与物理接口相关联。您必须为接口配置接口,才能执行 PIM 封装。
注意:
在 SRX 系列设备上,此接口类型为 |
|
内部生成的 PIM 解封装接口。此接口由 Junos OS生成,用于处理 PIM 解封装。这不是可配置的接口 |
|
内部生成的 PIM 封装接口。此接口由 Junos OS生成,用于处理 PIM 封装。这不是可配置的接口 |
|
可配置的虚拟回环通道接口。基于虚拟标签方便 VRF MPLS查找。路由器和路由器M Series支持T Series类型,但 SRX 系列设备上不支持此接口类型。 要配置虚拟回环通道来促进基于 MPLS 标签的 VRF 表查找,请指定虚拟回环通道接口名称,并将其与属于特定路由表的路由实例关联。数据包通过虚拟环回隧道回环进行路由查找。 |
从版本 15.1 Junos OS开始,您可以通过 GRE 接口配置第 2 层以太网服务(gr-fpc/pic/port
使用 GRE 封装)。要启用在 GRE 隧道上终止第 2 层以太网数据包,您必须在接口上配置桥接域协议gr-
gr-
家族,并将接口与桥接域关联。您必须将 GRE 接口配置为面向核心的接口,它们必须是接入接口或中继接口。要配置接口上的桥接域gr-
家族,请包含 family bridge
层级的 [edit interfaces gr-fpc/pic/port unit logical-unit-number]
语句。要将接口gr-
与桥接域关联,请包含 interface gr-fpc/pic/port
层级的 [edit routing-instances routing-instance-name bridge-domains bridge-domain-name]
语句。您可以通过在 层次结构级别包含 语句或 语句,将桥接域中的 GRE 接口与桥接域中相应的 VLAN ID 或 VLAN ID vlan-id (all | none | number)
vlan-id-list [ vlan-id-numbers ]
[edit bridge-domains bridge-domain-name]
列表进行关联。为桥接域配置的 VLAN ID 必须与您为 GRE vlan-id (all | none | number)
vlan-id-list [ vlan-id-numbers ]
[edit interfaces gr-fpc/pic/port unit logical-unit-number]
接口配置的 VLAN ID 匹配,在层次结构级别使用 语句或 语句。您还可以在与虚拟交换机实例相关联的桥接域内配置 GRE 接口。GRE 隧道上的第 2 层以太网数据包还受 GRE 键选项支持。gre-key 匹配条件允许用户与 GRE 键字段匹配,GRE 封装数据包中的可选字段。密钥可以匹配为单个键值、一系列密钥值或两者。
从版本 16.1 Junos OS开始,支持通过 GRE 接口镜像到远程收集器的 2 层端口。
另请参阅
带线卡的 MX 系列路由器上的通道接口(MPC7E 到 MPC11E)
MPC7E-10G、MPC7E-MRATE、MX2K-MPC8E 和 MX2K-MPC9E 每个 MPC 总共支持四个内联隧道接口,每个 PIC 一个。您可以使用这些 MPC 在 MX 系列路由器上为每个 PIC 插槽创建一组隧道接口,最多四个插槽(从 0 到 3)。
MPC10E-15C 每个 MPC 支持三个内联隧道接口,每个 PIC 一个,而 MPC10E-10C 支持每个 MPC 两个内联隧道接口,每个 PIC 一个。在具有 MPC10E-15C 的 MX 系列路由器上,您可以
每个 PIC 插槽创建一组通道接口,最多三个插槽(从 0 到 2)。此外,在具有 MPC10E-10C 的 MX 系列路由器上,您可以为每个 PIC 插槽创建一组隧道接口,最多两个插槽(0 和 1)。MX2K-MPC11E 每个 MPC 支持 8 个内联隧道接口,每个 PIC 一个。在具有 MX2K-MPC11E 的 MX 系列路由器上,每个 PIC 插槽可创建一组隧道接口,最多八个插槽(从 0 到 7)。这些 PIC 称为伪通道 PIC。您可以在包含 MPC7E-10G、MPC7E-MRATE、MX2K-MPC8E、MX2K-MPC9E、MPC10E-15C、MPC10E-10C 和 MX2K-MPC11E 的 MX2K-MPC11E [edit chassis] 路由器上创建隧道接口:
[edit chassis] fpc slot-number { pic number { tunnel-services { bandwidth ; } } }
- 数据包转发引擎 MPC7E-MRATE 的映射和通道带宽
- 数据包转发引擎 MPC7E-10G 的带宽映射和通道带宽
- 数据包转发引擎 MX2K-MPC8E 的带宽映射和隧道带宽
- 数据包转发引擎 MX2K-MPC9E 的带宽映射和隧道带宽
- 数据包转发引擎 MPC10E-10C 的带宽映射和通道带宽
- 数据包转发引擎 MPC10E-15C 的带宽映射和隧道带宽
- 数据包转发引擎 MX2K-MPC11E 的带宽映射和隧道带宽
- 数据包转发引擎 MX10K-LC9600 的带宽映射和通道带宽
数据包转发引擎 MPC7E-MRATE 的映射和通道带宽
MPC7E-MRATE 的通道带宽为 1–120Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 120Gbps。
表 2 显示了 MPC7-MRATE 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
PFE 映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
120Gbps |
PFE0 |
120Gbps |
240Gbps
|
PIC1 |
120Gbps |
|||
PIC2 |
120Gbps |
PFE1 |
120Gbps |
240Gbps |
PIC3 |
120Gbps |
数据包转发引擎 MPC7E-10G 的带宽映射和通道带宽
MPC7E-10G 的通道带宽为 1–120Gbps,其增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 120Gbps。
表 3 显示了 MPC7E-10G 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
PFE 映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
120Gbps |
PFE0 |
120Gbps |
200Gbps
|
PIC1 |
120Gbps |
|||
PIC2 |
120Gbps |
PFE1 |
120Gbps |
200Gbps |
PIC3 |
120Gbps |
数据包转发引擎 MX2K-MPC8E 的带宽映射和隧道带宽
MX2K-MPC8E 的隧道带宽为 1– 120Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 120Gbps。
表 4 显示了 MX2K-MPC8E 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
数据包转发引擎映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
120Gbps |
PFE0 |
120Gbps |
240Gbps |
PIC1 |
120Gbps |
PFE1 |
120Gbps |
240Gbps |
PIC2 |
120Gbps |
PFE2 |
120Gbps |
240Gbps |
PIC3 |
120Gbps |
PFE3 |
120Gbps |
240Gbps |
数据包转发引擎 MX2K-MPC9E 的带宽映射和隧道带宽
MX2K-MPC9E 的通道带宽为 1–200Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 200Gbps。
表 5 显示了 MX2K-MPC9E 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
PFE 映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
200Gbps |
PFE0 |
200Gbps |
400Gbps
|
PIC1 |
200Gbps |
PFE1 | 200Gbps |
400Gbps |
PIC2 |
200Gbps |
PFE2 |
200Gbps |
400Gbps |
PIC3 |
200Gbps |
PFE3 | 200Gbps |
400Gbps |
数据包转发引擎 MPC10E-10C 的带宽映射和通道带宽
MPC10E-10C 的通道带宽为 1–400Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 400Gbps。
表 6 显示了 MPC10E-10C 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
数据包转发引擎映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
250Gbps |
PFE0 |
250Gbps |
500Gbps |
PIC1 |
250Gbps |
PFE1 |
250Gbps |
500Gbps |
数据包转发引擎 MPC10E-15C 的带宽映射和隧道带宽
MPC10E-15C 的通道带宽为 1–400Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 400Gbps。
表 7 显示了 MPC10E-15C 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
数据包转发引擎映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
250Gbps |
PFE0 |
250Gbps |
500Gbps |
PIC1 |
250Gbps |
PFE1 |
250Gbps |
500Gbps |
PIC2 |
250Gbps |
PFE2 |
250Gbps |
500Gbps |
数据包转发引擎 MX2K-MPC11E 的带宽映射和隧道带宽
MX2K-MPC11E 的隧道带宽为 1–400Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 400Gbps。
表 8 显示了 MX2K-MPC11E 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
PFE 映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
250Gbps |
PFE0 |
250Gbps |
500Gbps |
PIC1 |
250Gbps |
PFE1 |
250Gbps |
500Gbps |
PIC2 |
250Gbps |
PFE2 |
250Gbps |
500Gbps |
PIC3 |
250Gbps |
PFE3 |
250Gbps |
500Gbps |
PIC4 |
250Gbps |
PFE4 |
250Gbps |
500Gbps |
PIC5 |
250Gbps |
PFE5 |
250Gbps |
500Gbps |
PIC6 |
250Gbps |
PFE6 |
250Gbps |
500Gbps |
PIC7 |
250Gbps |
PFE7 |
250Gbps |
500Gbps |
对于 MPC10E-10C、MPC10E-15C 和 MX2K-MPC11E,配置中的未指定通道服务带宽值导致的值大于特定信息流条件下每 PFE 的最大通道带宽。
数据包转发引擎 MX10K-LC9600 的带宽映射和通道带宽
MX10K-LC9600 的通道带宽为 1–400Gbps,增量为 1Gbps。但是,如果不在配置中指定带宽,则设置为 400Gbps。
表 9 显示了 MX10K-LC9600 的隧道带宽与数据包转发引擎之间的映射。
伪通道 PIC |
每个通道 PIC 的最大带宽 |
PFE 映射 |
每 PFE 的最大通道带宽 |
最大 PFE 带宽 |
---|---|---|---|---|
PIC0 |
200Gbps |
PFE0 |
200Gbps |
400Gbps |
PFE1 |
||||
PIC1 |
200Gbps |
PFE2 |
200Gbps |
400Gbps |
PFE3 |
||||
PIC2 |
200Gbps |
PFE4 |
200Gbps |
400Gbps |
PFE5 |
||||
PIC3 |
200Gbps |
PFE6 |
200Gbps |
400Gbps |
PFE7 |
||||
PIC4 |
200Gbps |
PFE8 |
200Gbps |
400Gbps |
PFE9 |
||||
PIC5 |
200Gbps |
PFE10 |
200Gbps |
400Gbps |
PFE11 |
另请参阅
动态隧道概述
通过非专用网络传输的 VPN MPLS GRE 通道。此隧道可以是静态隧道,也可以是动态隧道。静态隧道在两个 PE 路由器之间手动配置。动态隧道使用动态BGP解析进行配置。
当路由器接收可通过没有 MPLS 路径的下一跳跃解析的 BGP VPN 路由时,可动态创建 GRE 通道,从而允许将 VPN 流量转发至该路由。仅支持 GRE IPv4 隧道。
要配置两个 PE 路由器之间的动态隧道,请包含以下 dynamic-tunnels
语句:
dynamic-tunnels tunnel-name { destination-networks prefix; source-address address; }
您可以在以下层次结构级别中配置此语句:
[edit routing-options]
[edit routing-instances routing-instance-name routing-options]
[edit logical-systems logical-system-name routing-options]
[edit logical-systems logical-system-name routing-instances routing-instance-name routing-options]