配置 MLPPP
了解 MLPPP
多链路点到点协议 (MLPPP) 允许您将多个 PPP 链路捆绑到单个多链路捆绑包中。多链路捆绑包通过聚合 T1 和 E1 链路等低速链路,提供额外的带宽、负载平衡和冗余。
您可将多链路束配置为链路服务接口上的逻辑单元或通道。使用 MLPPP,多链路束配置为链路服务接口上的逻辑单元,例如 lsq-0/0/0.0
lsq-0/0/0.1
。创建多链路捆绑包后,可以将构成链路添加到捆绑包中。组成链路是要聚合的低速物理链路。
将构成链路添加至多链路捆绑包时,会遵守以下规则:
在每个多链路束上,仅添加相同类型的接口。例如,您可以添加 T1 或 E1,但不能同时添加两者。
只有 PPP 封装的接口才能添加到 MLPPP 捆绑包中。
如果某个接口是现有捆绑包的成员,并且您将其添加至新捆绑包,该接口将自动从现有捆绑包中删除并添加到新捆绑包中。
使用 MLPPP 捆绑包,您可以使用 PPP 质询握手认证协议 (CHAP) 和密码认证协议 (PAP) 通过 PPP 接口进行安全传输。有关详细信息,请参阅 配置 PPP 质询握手认证协议 和 配置 PPP 密码认证协议。
ACX 系列路由器上的 MLPPP 支持
ACX 系列路由器支持 MLPPP 封装。ACX1000、ACX2000、ACX2100 路由器上支持 MLPPP,ACX4000 路由器上还支持带 SFP 和 16 端口通道化 E1/T1 电路仿真 MIC 的通道化 OC3/STM1(多速率)MIC。
下表显示了您可以在 ACX 系列路由器上创建的最大多链路束数:
ACX 平台 |
最大束数 |
最大链路数 |
每包的最大链路数 |
---|---|---|---|
ACX2000 ACX2100 |
16 |
16 |
16 |
ACX4000 ACX-MIC-16CHE1-T1-客户边缘 |
16 |
16 |
16 |
ACX4000 ACX-MIC-4COC3-1COC12CE |
50 |
336 |
16 |
ACX1000 |
8 |
8 |
8 |
在 ACX 系列路由器上使用 LSQ 接口配置 MLPPP 的准则
您可使用 T1/E1 成员链路配置 MLPPP 捆绑接口。通过 MLPPP 捆绑接口传输的信息流以循环方式通过成员链路进行传播。如果数据包大小高于 MLPPP 接口上配置的分片大小,则数据包将分片。这些分片还会以循环模式通过成员链路发送。接口上收到的 PPP 控制数据包在路由器上终止。分片大小在 MLPPP 束级别配置。此分片大小适用于束上的所有数据包,而不考虑多链路类。
组组 MLPPP 将多链路协议数据包隔离到多个类。ACX 路由器最多支持四个等级。一个队列与四个组类 MLPPP 类的每一个相关联。数据包可分类为其中一个类的一部分。这些数据包将接收与类相关联的队列。队列中的数据包按"先入后出"(FIFO) 顺序提供。
多类 MLPPP 需要为高优先级、对延迟敏感的流量提供优先处理。对延迟敏感的小型实时帧进行分类,最终进入优先级更高的队列。当对优先级较低的数据包进行分片时,如果队列优先级较高的数据包,优先级较低的分片将挂起,优先级较高的数据包将分片并队列进行传输,随后将恢复优先级较低的数据包分片。
支持将 T1/E1 接口组合到一个 MLPPP 捆绑接口中,以传统 LSQ 接口(在PC 上锚定)。MLPPP 捆绑包中不支持内联服务 (si-) 接口和内联 LSQ 接口。在 ACX 路由器上,MLPPP 捆绑TDM传统的 LSQ 模型是最有效的机制。您可以将通道化 OC 接口 ( t1-x/y/z:n:m, e1-x/y/z:n
) 配置为 MLPPP 捆绑接口的成员。每个捆绑包最多支持 16 个成员链路。支持MPLS、ISO 和 inet 地址族。ISO 地址族仅支持用于IS-IS。您可以在以太网伪线的网络到网络接口 (NNI) 方向上配置 MLPPP 束。支持使用多类 MLPPP 的交织。
在 ACX 路由器上配置 MLPPP 捆绑包时,请注意以下几点:
物理链路的类型和带宽必须相同。
循环数据包分配通过成员链路执行。
要将 T1 或 E1 成员链路添加至 MLPPP 捆绑包作为链路服务 LSQ 接口,请包括在 层次结构级别
bundle
[edit interfaces t1-fpc/pic/port unit logical-unit-number family mlppp]
中的 语句:[edit interfaces t1-fpc/pic/port unit logical-unit-number family mlppp] bundle lsq-fpc/pic/port.logical-unit-number;
要配置链路服务 LSQ 接口属性,在层次结构级别中包括
[edit interfaces lsq-fpc/pic/port unit logical-unit-number]
以下语句:[edit interfaces lsq-fpc/pic/port unit logical-unit-number] encapsulation multilink-ppp; fragment-threshold bytes; minimum-links number; mrru bytes; short-sequence; family inet { address address; }
您可以将地址族配置为 MLPPP MPLS LSQ 接口的一个接口。
PPP 控制协议支持取决于 PPP 支持的 PPP 应用程序对 MLPPP 捆绑接口 IPv4、互联网协议控制协议 (IPCP)、PPP 质询握手认证协议 (CHAP) 和密码认证协议 (PAP) 应用程序的处理。
丢弃超时配置不适用于 ACX 路由器
不能对跨 MCS 的成员链路进行捆绑。只能捆绑同一 MIC 上的物理接口。
不支持部分 T1 和 E1 接口。CoS完全 T1 和 E1 接口才支持。无法使用 T1/E1 的选择性时隙,并且必须使用完整的 T1/E1 接口。
显示的详细统计信息取决于硬件支持的参数。在命令的输出中,显示硬件支持的计数器以及相应的
show interfaces lsq-fpc/pic/port detail
值。在下面的示例输出中,显示为 0 的字段表示 ACX 路由器不支持计算的字段。在 lsq- 接口统计信息中,捆绑包的非分片统计信息不会会计。非分片通常被视为单分片帧,并计算在分片统计信息中。
user@host# show interfaces lsq-1/1/0 detail Physical interface: lsq-1/1/0, Enabled, Physical link is Up Interface index: 162, SNMP ifIndex: 550, Generation: 165 Description: LSQ-interface Link-level type: LinkService, MTU: 1504 Device flags : Present Running Interface flags: Point-To-Point SNMP-Traps Internal: 0x0 Last flapped : 2015-06-22 19:01:47 PDT (2d 04:56 ago) Statistics last cleared: 2015-06-23 05:01:49 PDT (1d 18:56 ago) Traffic statistics: Input bytes : 108824 208896 bps Output bytes : 90185 174080 bps Input packets: 1075 256 pps Output packets: 1061 256 pps IPv6 transit statistics: Input bytes : 0 Output bytes : 0 Input packets: 0 Output packets: 0 Frame exceptions: Oversized frames 0 Errored input frames 0 Input on disabled link/bundle 0 Output for disabled link/bundle 0 Queuing drops 0 Buffering exceptions: Packet data buffer overflow 0 Fragment data buffer overflow 0 Assembly exceptions: Fragment timeout 0 Missing sequence number 0 Out-of-order sequence number 0 Out-of-range sequence number 0 Hardware errors (sticky): Data memory error 0 Control memory error 0 Logical interface lsq-1/1/0.0 (Index 326) (SNMP ifIndex 599) (Generation 177) Flags: Up Point-To-Point SNMP-Traps 0x0 Encapsulation: Multilink-PPP Last flapped: 2015-06-24 23:57:34 PDT (00:00:51 ago) Bandwidth: 6144kbps Bundle links information: Active bundle links 4 Removed bundle links 0 Disabled bundle links 0 Bundle options: MRRU 2000 Remote MRRU 2000 Drop timer period 0 Inner PPP Protocol field compression enabled Sequence number format short (12 bits) Fragmentation threshold 450 Links needed to sustain bundle 3 Multilink classes 4 Link layer overhead 4.0 % Bundle status: Received sequence number 0x0 Transmit sequence number 0x0 Packet drops 0 (0 bytes) Fragment drops 0 (0 bytes) MRRU exceeded 0 Fragment timeout 0 Missing sequence number 0 Out-of-order sequence number 0 Out-of-range sequence number 0 Packet data buffer overflow 0 Fragment data buffer overflow 0 Statistics Frames fps Bytes bps Bundle: Multilink: Input : 1076 256 484200 921600 Output: 1061 256 477450 921600 Network: Input : 2182 256 201812 208896 Output: 2168 256 192029 174080 IPV6 Transit Statistics Packets Bytes Network: Input : 0 0 Output: 0 0 Multilink class 0: Multilink: Input : 1075 256 483750 921600 Output: 1061 256 477450 921600 Network: Input : 1061 256 477450 921600 Output: 1075 256 483750 921600 Multilink class 1: Multilink: Input : 0 0 0 0 Output: 0 0 0 0 Network: Input : 0 0 0 0 Output: 0 0 0 0 Multilink class 2: Multilink: Input : 0 0 0 0 Output: 0 0 0 0 Network: Input : 0 0 0 0 Output: 0 0 0 0 Multilink class 3: Multilink: Input : 0 0 0 0 Output: 0 0 0 0 Network: Input : 0 0 0 0 Output: 0 0 0 0 Link: t1-1/1/1.0 Up time: 00:00:51 Input : 280 64 126000 230400 Output: 266 64 119700 230400 t1-1/1/2.0 Up time: 00:00:51 Input : 266 64 119700 230400 Output: 265 64 119250 230400 t1-1/1/3.0 Up time: 00:00:51 Input : 265 64 119250 230400 Output: 265 64 119250 230400 t1-1/1/4.0 Up time: 00:00:51 Input : 265 64 119250 230400 Output: 265 64 119250 230400 Multilink detail statistics: Bundle: Fragments: Input : 1076 256 484200 921600 Output: 1061 256 477450 921600 Non-fragments: Input : 0 0 0 0 Output: 0 0 0 0 LFI: Input : 0 0 0 0 Output: 0 0 0 0 Multilink class 0: Fragments: Input : 1076 256 484200 921600 Output: 1061 256 477450 921600 Non-fragments: Input : 0 0 0 0 Output: 0 0 0 0 Multilink class 1: Fragments: Input : 0 0 0 0 Output: 0 0 0 0 Non-fragments: Input : 0 0 0 0 Output: 0 0 0 0 Multilink class 2: Fragments: Input : 0 0 0 0 Output: 0 0 0 0 Non-fragments: Input : 0 0 0 0 Output: 0 0 0 0 Multilink class 3: Fragments: Input : 0 0 0 0 Output: 0 0 0 0 Non-fragments: Input : 0 0 0 0 Output: 0 0 0 0 NCP state: inet: Opened, inet6: Not-configured, iso: Opened, mpls: Opened Protocol inet, MTU: 1500, Generation: 232, Route table: 0 Flags: Sendbcast-pkt-to-re Addresses, Flags: Is-Preferred Is-Primary Destination: 9.1.9/24, Local: 9.1.9.18, Broadcast: Unspecified, Generation: 212 Protocol iso, MTU: 1500, Generation: 233, Route table: 0 Flags: Is-Primary Protocol mpls, MTU: 1488, Maximum labels: 3, Generation: 234, Route table: 0 Flags: Is-Primary
要修改 MLPPP 捆绑成员链路的 T1 选项或 E1 选项集的帧校验和 (FCS),必须通过停用链路或不将其配置为捆绑成员来从捆绑包中移除成员链路,然后修改后将链路重新添加到捆绑包中。您必须先从捆绑包中卸下链路并修改 FCS。如果第一次在成员链路上配置 FCS,请指定值,然后再将其添加到捆绑包中。
ACX 系列路由器不支持以下 MLPPP 功能:
跨 MIC 的成员链路。
每类分片(只能在束级别配置)。
IPv6 地址族标头压缩(无地址和控制字段压缩 [ACFC] 或协议字段压缩 [PFC])。
在 RFC 2686"多链路 PPP 的多类扩展 "中定义的前缀 Elision 。
可以使用组级 MLPPP (RFC 2686) 实现类似于链路分段和交织 (LFI) 的功能,在较低优先级数据包之间交错高优先级数据包。此方法可确保延迟 des des 数据包一到达就发送。虽然 LFI 分类数据包作为 PPP 数据包发送至特定成员链路,但交织的 ACX 实施包含多链路 PPP(也称为 PPP 多链路、MLP 和 MP)标头和分片,这些标头和分片以循环方式在成员链路上发送。
通过 MLPPP 捆绑接口的 PPP。
示例:在 ACX 系列上配置 MLPPP 捆绑包
要求
您需要 ACX 系列路由器配置以下示例
概述
以下示例用于在 ACX 系列路由器上配置 MLPPP 捆绑包:
配置
CLI快速配置
[edit] user@host# show interfaces lsq-1/1/0 { description LSQ-interface; per-unit-scheduler; unit 0 { encapsulation multilink-ppp; mrru 2000; short-sequence; fragment-threshold 450; minimum-links 3; multilink-max-classes 4; family inet { address 9.1.9.18/24 } family iso; family mpls; } } ct1-1/1/1 { enable; no-partition interface-type t1; } t1-1/1/1 { encapsulation ppp; unit 0 { family mlppp { bundle lsq-1/1/0.0; } } } ct1-1/1/2 { enable; no-partition interface-type t1; } t1-1/1/2 { encapsulation ppp; unit 0 { family mlppp { bundle lsq-1/1/0.0; } } } ct1-1/1/3 { enable; no-partition interface-type t1; } t1-1/1/3 { encapsulation ppp; unit 0 { family mlppp { bundle lsq-1/1/0.0; } } } ct1-1/1/4 { enable; no-partition interface-type t1; } t1-1/1/4 { encapsulation ppp; unit 0 { family mlppp { bundle lsq-1/1/0.0; } } }
程序
逐步过程
在 ACX 系列上使用 MLPPP 将 LSQ 接口配置为 NxT1 或 NxE1 捆绑包
LSQ 接口同时支持 T1 和 E1 物理接口。这些说明适用于 T1 接口,但是 E1 接口的配置与此类似。
要使用 N MLPPP 配置 xT1 捆绑包,可以将 N 不同的 T1 链路聚合到一个束中。 NxT1 捆绑包称为逻辑接口,因为它可以表示例如路由邻接关系。要将 T1 链路聚合到 MLPPP 捆绑包中,请包含 bundle
层级的 [edit interfaces t1-fpc/pic/port unit logical-unit-number family mlppp]
语句:
[edit interfaces t1-fpc/pic/port unit logical-unit-number family mlppp] bundle lsq-fpc/pic/port.logical-unit-number;
要配置 LSQ 接口属性,在层次结构级别中包括 [edit interfaces lsq-fpc/pic/port unit logical-unit-number]
以下语句:
[edit interfaces lsq-fpc/pic/port unit logical-unit-number] drop-timeout milliseconds; encapsulation multilink-ppp; fragment-threshold bytes; link-layer-overhead percent; minimum-links number; mrru bytes; short-sequence; family inet { address address; }
ACX 系列路由器不支持丢弃超时和链路层开销属性。
逻辑链路服务 IQ 接口表示 MLPPP 捆绑包。对于 MLPPP 捆绑包,路由器和 M Series 路由器上有四个关联队列,M320个T Series队列。时间表根据计划策略从队列中移除数据包。通常,您指定一个队列具有严格优先级,其余队列按您配置的权重比例提供服务。
对于 MLPPP,将单个时间表图分配给链路服务 IQ 接口 ( lsq
) 和每个要素链路。配置 LFI 或组播流量时,M Series 和 T Series 路由器的默认时间表不足,它们为队列 0、1、2 和 3 的传输速率和缓冲区大小分配 95、0、0 和 5% 带宽。因此,对于 MLPPP,您应为队列 0 到 3 配置一个非零百分比传输速率和缓冲区大小的时间表,并将此时间表分配至链路服务 IQ 接口 ( ) 和每个组件链路。。 lsq
对于 M320 和 T Series 路由器,队列 0 到 7 的默认时间表传输速率和缓冲区大小百分比为 95、0、0、5、0、0、0 和 0%。
如果捆绑包具有多个链路,则必须在 层级包含 per-unit-scheduler
[edit interfaces lsq-fpc/pic/port]
语句:
[edit interfaces lsq-fpc/pic/port] per-unit-scheduler;
要配置和应用计划策略,在层次结构级别中包括 [edit class-of-service]
以下语句:
[edit class-of-service] interfaces { t1-fpc/pic/port unit logical-unit-number { scheduler-map map-name; } } forwarding-classes { queue queue-number class-name; } scheduler-maps { map-name { forwarding-class class-name scheduler scheduler-name; } } schedulers { scheduler-name { buffer-size (percent percentage | remainder | temporal microseconds); priority priority-level; transmit-rate (rate | remainder) <exact>; } }
对于链路服务 IQ 接口,严格高优先级队列可能不足其他三个队列,因为严格高优先级队列中的信息流在服务任何其他队列之前传输。此实施与标准 Junos CoS实施不同,其中严格高优先级队列使用高优先级队列执行轮询,如 Junos OS路由设备服务类别用户指南 中所述。
时间表从队列中移除数据包之后,将执行某种操作。操作取决于数据包来自多链路封装队列(分片和序列化)还是非封装队列(无分段散列)。每个队列都可以指定为多链路封装或不封装,相互独立。默认情况下,所有转发类中的流量均封装为多链路。要配置队列的数据包分片处理,请包含 fragmentation-maps
层级的 [edit class-of-service]
语句:
fragmentation-maps { map-name { forwarding-class class-name { multilink-class number; } } }
对于使用 MLPPP 的 xT1 捆绑包,多链路封装队列中使用的字节负载平衡优于非封装队列中使用的基于流的负载平衡。 N所有其他注意事项都是相同的。因此,建议将所有队列配置为多链路封装。您可将 语句 fragment-threshold
包括到配置中,以完成此操作。您可使用 multilink-class
语句将转发类映射至组组 MLPPP。有关分段图的信息,请参阅 在 LSQ 接口CoS类来配置分段。
当数据包从多链路封装的队列中卸下时,软件会为数据包提供一个 MLPPP 标头。MLPPP 报头包含一个序列号字段,其中包含来自计数器的下一个可用序列号。然后,软件将数据包放在一个不同的 N T1 链路上。该链路按数据包选择,以平衡各种 T1 链路之间的负载。
如果数据包超过最低链路 MTU,或者队列在层次结构级别配置了分片阈值,则软件将数据包拆分为两个或多个分片,连续多链路序列号分配。 [edit class-of-service fragmentation-maps map-name forwarding-class class-name]
每个分片的传出链路独立于所有其他分片选择。
如果在分片映射中不包含 语句,则您设置在层次结构级别的分片阈值 fragment-threshold
[edit interfaces interface-name unit logical-unit-number]
是所有转发类的默认设置。如果不在配置中的任何位置设置最大分片大小,则数据包将分片,如果数据包超过束中所有链路MTU最小分段。
即使您未在配置中的任何位置设置最大分片大小,也可在 层次结构级别包含 语句来配置最大接收重构单位 mrru
[edit interfaces lsq-fpc/pic/port unit logical-unit-number]
(MRRU)。MRRU 类似于 MTU,但特定于链路服务接口。默认情况下,MRRU 大小为 1500 字节,您可以将它配置为 1500 到 4500 字节。有关详细信息,请参阅 在多链路和链路服务逻辑接口上配置 MRRU 。
当数据包从非未捕获的队列中移除时,它使用纯 PPP 标头进行传输。由于无 MLPPP 标头,因此没有序列号信息。因此,软件必须采取特殊措施避免数据包重新排序。为避免数据包重新排序,软件将数据包放在一个不同的 N T1 链路上。通过散列标头中的值来确定链路。对于 IP,软件基于源地址、目标地址和 IP 协议计算散列。对于MPLS MPLS,软件会基于最多五个标准标签或四个 MPLS 标签和 IP 标头计算散列。
对于 UDP 和 TCP,软件计算基于源端口和目标端口以及源和目标 IP 地址的散列。这将保证属于同一 TCP/UDP 流的所有数据包始终通过同一 T1 链路,因此不能重新排序。但是,并不保证各种 T1 链路上的负载均衡。如果流很多,则负载通常平衡。
不同 T1 接口连接到另一个路由器,该路由器可能来自瞻博网络 N 或另一家供应商。远端路由器从所有 T1 链路中收集数据包。如果数据包有 MLPPP 标头,则序列号字段用于将数据包重新按序列号顺序。如果数据包有纯 PPP 标头,软件将按数据包到达的顺序接受数据包,不会尝试重新组合或重新排序数据包。
示例:使用 MLPPP 将 LSQ 接口配置为 NxT1 束
[edit interfaces] lsq-1/1/0 { per-unit-scheduler; unit 0 { encapsulation multilink-ppp; mrru 2000; multilink-max-classes 4; family inet { address 20.1.1.1/24; } family mpls; } } ct1-1/1/4 { enable; no-partition interface-type t1; } t1-1/1/4 { encapsulation ppp; unit 0 { family mlppp { bundle lsq-1/1/0.0; } } } ct1-1/1/5 { enable; no-partition interface-type t1; } t1-1/1/5 { encapsulation ppp; unit 0 { family mlppp { bundle lsq-1/1/0.0; } } } } class-of-service { classifiers { inet-precedence myIPv4 { forwarding-class best-effort { loss-priority low code-points 000; } forwarding-class expedited-forwarding { loss-priority low code-points 001; } forwarding-class assured-forwarding { loss-priority low code-points 011; } forwarding-class network-control { loss-priority low code-points 111; } } } drop-profiles { dp1 { fill-level 50 drop-probability 0; fill-level 100 drop-probability 100; } dp2 { fill-level 50 drop-probability 0; fill-level 100 drop-probability 100; } } interfaces { lsq-1/1/0 { unit 0 { scheduler-map sm; fragmentation-map frag; rewrite-rules { inet-precedence myRRIPv4; } } } } rewrite-rules { inet-precedence myRRIPv4 { forwarding-class best-effort { loss-priority low code-point 111; } forwarding-class expedited-forwarding { loss-priority low code-point 011; } forwarding-class assured-forwarding { loss-priority low code-point 001; } forwarding-class network-control { loss-priority low code-point 000; } } } scheduler-maps { sm { forwarding-class best-effort scheduler new; forwarding-class network-control scheduler new_nc; forwarding-class assured-forwarding scheduler new_af; forwarding-class expedited-forwarding scheduler new_ef; } } fragmentation-maps { frag { forwarding-class { best-effort { multilink-class 3; } network-control { multilink-class 0; } assured-forwarding { multilink-class 2; } expedited-forwarding { multilink-class 1; } } } } schedulers { new { transmit-rate 32k; shaping-rate 3m; priority low; drop-profile-map loss-priority low protocol any drop-profile dp1; drop-profile-map loss-priority high protocol any drop-profile dp2; } new_nc { transmit-rate 32k; shaping-rate 3m; priority strict-high; } new_af { transmit-rate 32k; shaping-rate 3m; priority medium-low; } new_ef { transmit-rate 32k; shaping-rate 3m; priority medium-high; } } }
了解多类 MLPPP
多类 MLPPP 使得通过具有大量流量的单个多链路束携带的多个延迟敏感型信息流类成为可能。实际上,组组 MLPPP 允许不同信息流类有不同的延迟保证。使用组类 MLPPP,您可以将每个转发类映射为单独的多链路类,从而保留优先级和延迟保证。组组 MLPPP 在 RFC 2686" 多链路 PPP 的多 类扩展 "中定义。对于使用 MLPPP 封装的链路服务智能队列 (LSQ) 接口 ( ),只能 lsq-
配置组类 MLPPP。
组类 MLPPP 极大地简化了使用多个链路时发生的数据包排序问题。如果没有组组 MLPPP,属于单个流的所有语音信息流将散列到单个链路中,以避免数据包排序问题。借助组类 MLPPP,您可以将语音信息流分配给高优先级类,并且可使用多个链路。有关 LSQ 接口上语音服务支持的信息,请参阅 为 语音服务配置服务接口。
如果不配置组类 MLPPP,将无法交织不同类的分片。在发送来自另一个数据包的分片之前,必须发送单个数据包的所有分片。非整理的数据包可在另一个数据包的分片之间交织在一起,从而减少非整理数据包看到的延迟。实际上,对延迟敏感的信息流封装为常规 PPP 信息流,而批量信息流封装为多链路信息流。只要存在单类延迟敏感型信息流,没有高优先级流量优先于对延迟敏感的流量,此模式就有效。
链路服务 PIC 上使用的这种链路分段交织 (LFI) 方法仅支持两个信息流优先级级别,不足以承载 M Series 和 T Series 路由器支持的四到八个转发类。有关 LFI 的链路服务 PIC 支持的信息,请参阅 在链路服务逻辑接口上配置延迟敏感型数据包 交织。
ACX 系列路由器不支持 LFI。
在同一束上配置 LFI 和组类 MLPPP 并非必要,也不需要它,因为组组 MLPPP 表示功能的超集。配置组类 MLPPP 时,LFI 将自动启用。
组Junos OS MLPPP 的一致实施不支持对通用标头字节进行压缩,在 RFC 2686 中称为"前缀 elision"。
在 LSQ 接口上配置组类 MLPPP
要配置 LSQ 接口上的组类 MLPPP,必须在链路加入捆绑包时指定应协商多少个多链路类,并且必须指定将转发类映射至组类 MLPPP 类。
ACX 系列路由器上链路服务 IQ (lsq) 接口的注意事项:
当链路加入可在层次结构级别使用 语句指定捆绑包时要协商的最大多链路类数限制为
multilink-max-classes
[edit interfaces interface-name unit logical-unit-number]
4。分片大小在分片映射下未指定;而是使用在捆绑包上配置的分段大小。
不支持压缩实时传输协议 (RTP)。
不支持 HDLC 地址和控制字段压缩 (ACFC) 和 PPP 协议字段压缩 (PFC)。