Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

MLPPP konfigurieren

MLPPP verstehen

Mit dem Multilink Point-to-Point Protocol (MLPPP) können Sie mehrere PPP-Verbindungen in einem einzigen Multilink-Bündel bündeln. Multilink-Bundles bieten zusätzliche Bandbreite, Lastausgleich und Redundanz, indem sie langsame Verbindungen wie T1- und E1-Links aggregieren.

Sie konfigurieren Multilink-Bundles als logische Einheiten oder Kanäle auf der Link-Services-Schnittstelle. Bei MLPPP werden Multilink-Bundles als logische Einheiten auf der Link-Service-Schnittstelle konfiguriert, lsq-0/0/0.0lsq-0/0/0.1z. B. . . Nachdem Sie Multilink-Bundles erstellt haben, fügen Sie dem Bundle konstituierende Links hinzu. Die konstituierenden Links sind die physischen Low-Speed-Verbindungen, die aggregiert werden sollen.

Die folgenden Regeln gelten, wenn Sie einem Multilink-Bundle konstituierende Links hinzufügen:

  • Fügen Sie auf jedem Multilink-Bundle nur Schnittstellen desselben Typs hinzu. Sie können z. B. entweder T1 oder E1 hinzufügen, aber nicht beide.

  • Einem MLPPP-Bundle können nur Schnittstellen mit einer PPP-Kapselung hinzugefügt werden.

  • Wenn eine Schnittstelle Mitglied eines vorhandenen Bundles ist und Sie sie zu einem neuen Bundle hinzufügen, wird die Schnittstelle automatisch aus dem vorhandenen Bundle gelöscht und dem neuen Bundle hinzugefügt.

Mit MLPPP-Paketen können Sie PPP Challenge Handshake Authentication Protocol (CHAP) und Password Authentication Protocol (PAP) für die sichere Übertragung über die PPP-Schnittstellen verwenden. Weitere Informationen finden Sie unter Konfigurieren des PPP Challenge Handshake Authentication Protocol und Konfigurieren des PPP Password Authentication Protocol.

MLPPP-Unterstützung auf Routern der ACX-Serie

Router der ACX-Serie unterstützen MLPPP-Kapselungen. MLPPP wird auf ACX1000-, ACX2000- und ACX2100-Routern sowie mit Channelized OC3/STM1 (Multi-Rate) MICs mit SFP und 16-Port Channelized E1/T1 Circuit Emulation MIC auf ACX4000-Routern unterstützt.

Die folgende Tabelle zeigt die maximale Anzahl von Multilink-Paketen, die Sie auf Routern der ACX-Serie erstellen können:

Tabelle 1: Von Routern der ACX-Serie unterstützte Multilink-Bundles

ACX-Plattform

Maximale Anzahl an Bundles

Maximale Anzahl an Links

Maximale Anzahl an Links pro Bundle

ACX2000

ACX2100

16

16

16

ACX4000 ACX-MIC-16CHE1-T1-CE

16

16

16

ACX4000 ACX-MIC-4COC3-1COC12CE

50

336

16

ACX1000

8

8

8

Richtlinien für die Konfiguration von MLPPP mit LSQ-Schnittstellen auf Routern der ACX-Serie

Sie können MLPPP-Bundle-Schnittstellen mit T1/E1-Mitgliedsverknüpfungen konfigurieren. Der Datenverkehr, der über die MLPPP-Bundle-Schnittstelle übertragen wird, wird im Round-Robin-Verfahren über die Mitgliedsverknüpfungen verteilt. Wenn die Paketgröße höher ist als die auf der MLPPP-Schnittstelle konfigurierte Fragmentierungsgröße, werden die Pakete fragmentiert. Die Fragmente werden auch über Member-Links in einem Round-Robin-Muster gesendet. Die PPP-Steuerpakete, die auf der Schnittstelle empfangen werden, werden auf dem Router beendet. Die Fragmentierungsgröße wird auf MLPPP-Bundle-Ebene konfiguriert. Diese Fragmentierungsgröße wird auf alle Pakete im Bundle angewendet, unabhängig von der Multilink-Klasse.

Multiclass MLPPP trennt die Multilink-Protokollpakete in mehrere Klassen. ACX-Router unterstützen bis zu vier Klassen. Jede der vier Klassen von MLPPP mit mehreren Klassen ist einer Warteschlange zugeordnet. Die Pakete können klassifiziert werden, um Teil einer der Klassen zu sein. Diese Pakete übernehmen die Warteschlange, die der Klasse zugeordnet ist. Die Pakete innerhalb einer Warteschlange werden in der FIFO-Reihenfolge (First-in-First-out) bereitgestellt.

Multiklassen-MLPPP ist erforderlich, um verspätungsempfindlichen Datenverkehr mit hoher Priorität bevorzugt zu behandeln. Die verzögerungsempfindlichen kleineren Echtzeitframes werden so klassifiziert, dass sie in der Warteschlange mit höherer Priorität landen. Wenn während der Fragmentierung eines Pakets mit niedrigerer Priorität ein Paket mit höherer Priorität in die Warteschlange eingereiht wird, wird die Fragmentierung mit niedrigerer Priorität angehalten, das Paket mit höherer Priorität wird fragmentiert und zur Übertragung in die Warteschlange eingereiht, und dann wird die Paketfragmentierung mit niedrigerer Priorität fortgesetzt.

Herkömmliche LSQ-Schnittstellen (verankert auf PICs) werden unterstützt, um T1/E1-Schnittstellen in einer MLPPP-Bundle-Schnittstelle zu kombinieren. Inline-Services-Schnittstellen (si-) und Inline-LSQ-Schnittstellen werden in MLPPP-Bundles nicht unterstützt. Bei ACX-Routern wird die MLPPP-Bündelung auf den TDM-MICs durchgeführt, wobei das traditionelle LSQ-Modell der effektivste Mechanismus ist. Sie können kanalisierte OC-Schnittstellen (t1-x/y/z:n:m, e1-x/y/z:n) als Mitglieder einer MLPPP-Bundle-Schnittstelle konfigurieren. Es werden maximal 16 Mitgliederlinks pro Bundle unterstützt. Die MPLS-, ISO- und inet-Adressfamilien werden unterstützt. Die ISO-Adressfamilie wird nur für IS-IS unterstützt. Sie können MLPPP-Bundles in NNI-Richtung (Network-to-Network-Schnittstelle) einer Ethernet-Pseudoleitung konfigurieren. Die Verschachtelung mit Multiklassen-MLPPP wird unterstützt.

Beachten Sie bei der Konfiguration von MLPPP-Paketen auf ACX-Routern die folgenden Punkte:

  • Die physischen Verbindungen müssen vom gleichen Typ und mit der gleichen Bandbreite sein.

  • Die Round-Robin-Paketverteilung erfolgt über die Mitgliedsverbindungen.

  • Um dem MLPPP-Bundle einen T1- oder E1-Member-Link als Link-Services-LSQ-Schnittstellen hinzuzufügen, fügen Sie die bundle Anweisung auf Hierarchieebene [edit interfaces t1-fpc/pic/port unit logical-unit-number family mlppp] ein:

  • Um die LSQ-Schnittstelleneigenschaften der Link Services zu konfigurieren, fügen Sie die folgenden Anweisungen auf Hierarchieebene [edit interfaces lsq-fpc/pic/port unit logical-unit-number] ein:

    Sie können die Adressfamilie als MPLS für die LSQ-Schnittstellen in einem MLPPP-Bundle konfigurieren.

  • Die Unterstützung des PPP-Kontrollprotokolls hängt von der Verarbeitung der PPP-Anwendung für MLPPP-Bundle-Schnittstellen ab IPv4, Internet Protocol Control Protocol (IPCP), PPP Challenge Handshake Authentication Protocol (CHAP) und Password Authentication Protocol (PAP)-Anwendungen werden für PPP unterstützt.

  • Die Konfiguration des Drop-Timeouts gilt nicht für ACX-Router

  • Die Mitgliedslinks über MICs hinweg können nicht gebündelt werden. Es können nur physische Schnittstellen auf demselben MIC gebündelt werden.

  • Fraktionierte T1- und E1-Schnittstellen werden nicht unterstützt. CoS wird nur für vollständige T1- und E1-Schnittstellen unterstützt. Selektive Zeitschlitze von T1/E1 können nicht verwendet werden, und es müssen vollständige T1/E1-Schnittstellen verwendet werden.

  • Die angezeigten detaillierten Statistiken hängen von den Parametern ab, die von der Hardware unterstützt werden. Die Zähler, die von der Hardware unterstützt werden, werden in der Ausgabe des show interfaces lsq-fpc/pic/port detail Befehls mit entsprechenden Werten angezeigt.

    In der folgenden Beispielausgabe bezeichnen die Felder, die mit dem Wert 0 angezeigt werden, die Felder, die von ACX-Routern nicht für die Berechnung unterstützt werden. In der lsq-Schnittstellenstatistik werden Nicht-Fragment-Statistiken des Bundles nicht berücksichtigt. Nicht-Fragmente werden in der Regel als Einzelfragment-Frames behandelt und in der Fragmentstatistik gezählt.

  • Um die Frame-Prüfsumme (FCS) im Satz von T1-Optionen oder E1-Optionen für einen MLPPP-Bundle-Member-Link zu ändern, müssen Sie den Member-Link aus dem Bundle entfernen, indem Sie den Link deaktivieren oder die Konfiguration als Bundle-Mitglied aufheben, und den Link nach der FCS-Änderung wieder zum Bundle hinzufügen. Sie müssen zuerst den Link aus dem Bundle entfernen und FCS ändern. Wenn Sie FCS zum ersten Mal für den Mitgliedslink konfigurieren, geben Sie den Wert an, bevor er dem Bundle hinzugefügt wird.

Die folgenden MLPPP-Funktionen werden von Routern der ACX-Serie nicht unterstützt:

  • Mitgliederlinks über MICs hinweg.

  • Fragmentierung pro Klasse (nur auf Bundle-Ebene konfigurierbar).

  • IPv6-Adressfamilien-Header-Komprimierung (keine ACFC-Komprimierung [Address and Control Field Compression] oder Protokollfeldkomprimierung [PFC]).

  • Präfixelision wie in RFC 2686, The Multi-Class Extension to Multi-Link PPP definiert.

  • Eine Funktionalität, die der Link-Fragmentierung und -Interleaving (LFI) ähnelt, kann mithilfe von Multiclass MLPPP (RFC 2686) erreicht werden, bei dem Pakete mit hoher Priorität zwischen Paketen mit niedrigerer Priorität verschachtelt werden. Diese Methodik stellt sicher, dass die verzögerungsbestimmenden Pakete gesendet werden, sobald sie ankommen. Während LFI-klassifizierte Pakete als PPP-Pakete an eine bestimmte Mitgliederverbindung gesendet werden, enthält die ACX-Implementierung von Interleaving Multilink-PPP-Header und -Fragmente (auch als PPP-Multilink, MLP und MP bezeichnet), die auf allen Mitgliederverbindungen im Round-Robin-Verfahren gesendet werden.

  • PPP über MLPPP bündeln Schnittstellen.

Beispiel: Konfigurieren eines MLPPP-Bundles auf der ACX-Serie

Anforderungen

Sie benötigen Router der ACX-Serie, um das folgende Beispiel zu konfigurieren

Übersicht

Im Folgenden finden Sie ein Beispiel für die Konfiguration eines MLPPP-Pakets auf Routern der ACX-Serie:

Konfiguration

CLI-Schnellkonfiguration

Verfahren

Schritt-für-Schritt-Anleitung

Konfigurieren von LSQ-Schnittstellen als NxT1- oder NxE1-Bundles mithilfe von MLPPP auf der ACX-Serie

LSQ-Schnittstellen unterstützen sowohl physische T1- als auch E1-Schnittstellen. Diese Anweisungen gelten für T1-Schnittstellen, die Konfiguration für E1-Schnittstellen ist jedoch ähnlich.

Um ein NxT1-Bundle mit MLPPP zu konfigurieren, aggregieren N Sie verschiedene T1-Links zu einem Bundle. Das NxT1-Bundle wird als logische Schnittstelle bezeichnet, da es z. B. eine Routing-Nachbarschaft darstellen kann. Um T1-Links in einem MLPPP-Bundle zu aggregieren, fügen Sie die bundle Anweisung auf Hierarchieebene [edit interfaces t1-fpc/pic/port unit logical-unit-number family mlppp] ein:

Um die LSQ-Schnittstelleneigenschaften zu konfigurieren, fügen Sie die folgenden Anweisungen auf Hierarchieebene [edit interfaces lsq-fpc/pic/port unit logical-unit-number] ein:

Hinweis:

Router der ACX-Serie unterstützen keine Drop-Timeout- und Link-Layer-Overhead-Eigenschaften.

Die IQ-Schnittstelle für logische Linkdienste stellt das MLPPP-Bündel dar. Für das MLPPP-Paket gibt es vier zugeordnete Warteschlangen auf Routern der M-Serie und acht zugeordnete Warteschlangen auf Routern der M320- und T-Serie. Ein Scheduler entfernt Pakete gemäß einer Planungsrichtlinie aus den Warteschlangen. In der Regel legen Sie eine Warteschlange mit strikter Priorität fest, und die verbleibenden Warteschlangen werden proportional zu den von Ihnen konfigurierten Gewichtungen bedient.

Weisen Sie für MLPPPP der IQ-Schnittstellelsq () und jeder konstituierenden Verbindung eine einzelne Scheduler-Zuordnung zu. Die Standard-Scheduler für Router der M- und T-Serie, die 95, 0, 0 und 5 Prozent Bandbreite für die Übertragungsrate und Puffergröße der Warteschlangen 0, 1, 2 und 3 zuweisen, sind nicht ausreichend, wenn Sie LFI- oder Multiklassen-Datenverkehr konfigurieren. Daher sollten Sie für MLPPPP einen einzelnen Scheduler mit Übertragungsraten ungleich Null Prozent und Puffergrößen für die Warteschlangen 0 bis 3 konfigurieren und diesen Scheduler der Link Services IQ-Schnittstelle (lsq) und jeder konstituierenden Verbindung zuweisen.

Hinweis:

Bei Routern der M320- und T-Serie betragen die standardmäßigen Prozentsätze für die Scheduler-Übertragungsrate und Puffergröße für die Warteschlangen 0 bis 7 95, 0, 0, 5, 0, 0, 0 und 0  Prozent.

Wenn das Bundle mehr als einen Link enthält, müssen Sie die per-unit-scheduler Anweisung auf Hierarchieebene [edit interfaces lsq-fpc/pic/port] einfügen:

Fügen Sie zum Konfigurieren und Anwenden der Planungsrichtlinie die folgenden Anweisungen auf Hierarchieebene [edit class-of-service] ein:

Bei Link Services IQ-Schnittstellen kann eine Warteschlange mit strenger hoher Priorität die anderen drei Warteschlangen aushungern, da der Datenverkehr in einer Warteschlange mit strenger hoher Priorität übertragen wird, bevor eine andere Warteschlange bedient wird. Diese Implementierung unterscheidet sich von der standardmäßigen Junos CoS-Implementierung, bei der eine Warteschlange mit strikter hoher Priorität ein Round-Robin-Verfahren mit Warteschlangen mit hoher Priorität durchführt, wie im Junos OS Class of Service-Benutzerhandbuch für Routing-Geräte beschrieben.

Nachdem der Scheduler ein Paket aus einer Warteschlange entfernt hat, wird eine bestimmte Aktion ausgeführt. Die Aktion hängt davon ab, ob das Paket aus einer Multilink-gekapselten Warteschlange (fragmentiert und sequenziert) oder einer nicht gekapselten Warteschlange (gehasht ohne Fragmentierung) stammt. Jede Warteschlange kann unabhängig voneinander entweder als Multilink-gekapselt oder als nicht gekapselt festgelegt werden. Standardmäßig ist der Datenverkehr in allen Weiterleitungsklassen Multilink-gekapselt. Um die Behandlung der Paketfragmentierung in einer Warteschlange zu konfigurieren, fügen Sie die fragmentation-maps Anweisung auf Hierarchieebene [edit class-of-service] ein:

Bei NxT1-Bundles, die MLPPP verwenden, ist das byteweise Load Balancing, das in Multilink-gekapselten Warteschlangen verwendet wird, dem Flow-weisen Load Balancing überlegen, das in nicht gekapselten Warteschlangen verwendet wird. Alle anderen Überlegungen sind gleich. Daher wird empfohlen, alle Warteschlangen so zu konfigurieren, dass sie Multilink-gekapselt sind. Dazu fügen Sie die Anweisung in die fragment-threshold Konfiguration ein. Sie verwenden die multilink-class Anweisung, um eine Weiterleitungsklasse einem MLPPP mit mehreren Klassen zuzuordnen. Weitere Informationen zu Fragmentierungszuordnungen finden Sie unter Konfigurieren der CoS-Fragmentierung durch Weiterleitungsklasse auf LSQ-Schnittstellen.

Wenn ein Paket aus einer Multilink-gekapselten Warteschlange entfernt wird, weist die Software dem Paket einen MLPPP-Header zu. Der MLPPP-Header enthält ein Sequenznummernfeld, das mit der nächsten verfügbaren Sequenznummer eines Zählers gefüllt wird. Die Software platziert das Paket dann auf einer der N verschiedenen T1-Verbindungen. Die Verbindung wird für jedes einzelne Paket ausgewählt, um die Last auf die verschiedenen T1-Verbindungen auszugleichen.

Wenn das Paket die minimale Verbindungs-MTU überschreitet oder wenn für eine Warteschlange ein auf Hierarchieebene [edit class-of-service fragmentation-maps map-name forwarding-class class-name] konfigurierter Fragmentschwellenwert konfiguriert ist, teilt die Software das Paket in zwei oder mehr Fragmente auf, denen aufeinanderfolgende Multilink-Sequenznummern zugewiesen werden. Der ausgehende Link für jedes Fragment wird unabhängig von allen anderen Fragmenten ausgewählt.

Wenn Sie die Anweisung nicht in die fragment-threshold Fragmentierungszuordnung aufnehmen, ist der Fragmentierungsschwellenwert, den Sie auf der Hierarchieebene festlegen, der [edit interfaces interface-name unit logical-unit-number] Standardwert für alle Weiterleitungsklassen. Wenn Sie an keiner Stelle in der Konfiguration eine maximale Fragmentgröße festlegen, werden Pakete fragmentiert, wenn sie die kleinste MTU aller Links im Bundle überschreiten.

Auch wenn Sie an keiner Stelle in der Konfiguration eine maximale Fragmentgröße festlegen, können Sie die maximale empfangene rekonstruierte Einheit (MRRU) konfigurieren, indem Sie die mrru Anweisung auf Hierarchieebene [edit interfaces lsq-fpc/pic/port unit logical-unit-number] einschließen. Die MRRU ähnelt der MTU, ist jedoch spezifisch für Link-Services-Schnittstellen. Standardmäßig beträgt die MRRU-Größe 1500 Byte, und Sie können sie auf 1500 bis 4500 Byte konfigurieren. Weitere Informationen finden Sie unter Konfigurieren der MRRU für logische Multilink- und Link Services-Schnittstellen.

Wenn ein Paket aus einer nicht gekapselten Warteschlange entfernt wird, wird es mit einem einfachen PPP-Header übertragen. Da kein MLPPP-Header vorhanden ist, gibt es auch keine Informationen zur Sequenznummer. Daher muss die Software besondere Maßnahmen ergreifen, um eine Neuanordnung von Paketen zu vermeiden. Um eine Neuanordnung der Pakete zu vermeiden, platziert die Software das Paket auf einer der N verschiedenen T1-Verbindungen. Der Link wird durch Hashing der Werte im Header bestimmt. Für IP berechnet die Software den Hash basierend auf Quelladresse, Zieladresse und IP-Protokoll. Bei MPLS berechnet die Software den Hash auf der Grundlage von bis zu fünf MPLS-Labels oder vier MPLS-Labels und dem IP-Header.

Für UDP und TCP berechnet die Software den Hash basierend auf den Quell- und Zielports sowie den Quell- und Ziel-IP-Adressen. Dies garantiert, dass alle Pakete, die zum gleichen TCP/UDP-Fluss gehören, immer dieselbe T1-Verbindung durchlaufen und daher nicht neu angeordnet werden können. Es garantiert jedoch nicht, dass die Last auf den verschiedenen T1-Verbindungen ausgeglichen ist. Bei vielen Strömen ist die Last in der Regel ausgeglichen.

Die N verschiedenen T1-Schnittstellen sind mit einem anderen Router verbunden, der von Juniper Networks oder einem anderen Anbieter stammen kann. Der Router am anderen Ende sammelt Pakete von allen T1-Verbindungen. Wenn ein Paket über einen MLPPP-Header verfügt, wird das Feld für die Sequenznummer verwendet, um das Paket wieder in die Reihenfolge der Sequenznummern zu bringen. Wenn das Paket einen einfachen PPP-Header hat, akzeptiert die Software das Paket in der Reihenfolge, in der es ankommt, und unternimmt keinen Versuch, das Paket wieder zusammenzusetzen oder neu anzuordnen.

Beispiel: LSQ-Schnittstelle als NxT1-Bundle mit MLPPP konfigurieren

Grundlegendes zu Multiklassen-MLPPP

Multiclass MLPPP ermöglicht mehrere Klassen von latenzempfindlichem Datenverkehr, die über ein einziges Multilink-Bündel mit Massendatenverkehr übertragen werden. Tatsächlich ermöglicht Multiklassen-MLPPP verschiedenen Datenverkehrsklassen, unterschiedliche Latenzgarantien zu haben. Mit Multiclass MLPPP können Sie jede Weiterleitungsklasse einer separaten Multilink-Klasse zuordnen und so Prioritäts- und Latenzgarantien beibehalten. Multiklassen-MLPPP ist in RFC 2686, The Multi-Class Extension to Multi-Link PPP, definiert. Sie können MLPPP mit mehreren Klassen nur für Link Services Intelligent Queuing (LSQ)-Schnittstellen (lsq-) mit MLPPP-Kapselung konfigurieren.

Multiclass MLPPP vereinfacht Probleme bei der Paketreihenfolge, die bei der Verwendung mehrerer Links auftreten, erheblich. Ohne Multiklassen-MLPPP wird der gesamte Sprachverkehr, der zu einem einzelnen Datenfluss gehört, an eine einzige Verbindung gehasht, um Probleme bei der Paketreihenfolge zu vermeiden. Mit MLPPP mit mehreren Klassen können Sie Sprachdatenverkehr einer Klasse mit hoher Priorität zuweisen und mehrere Links verwenden. Weitere Informationen zur Unterstützung von Sprachdiensten auf LSQ-Schnittstellen finden Sie unter Konfigurieren von Dienstschnittstellen für Sprachdienste.

Wenn Sie MLPPP mit mehreren Klassen nicht konfigurieren, können Fragmente aus verschiedenen Klassen nicht verschachtelt werden. Alle Fragmente für ein einzelnes Paket müssen gesendet werden, bevor die Fragmente eines anderen Pakets gesendet werden. Nicht fragmentierte Pakete können zwischen Fragmenten eines anderen Pakets verschachtelt werden, um die Latenz zu reduzieren, die bei nicht fragmentierten Paketen auftritt. Tatsächlich wird latenzempfindlicher Datenverkehr als regulärer PPP-Datenverkehr und Massendatenverkehr als Multilink-Datenverkehr gekapselt. Dieses Modell funktioniert, solange es eine einzelne Klasse von latenzempfindlichem Datenverkehr gibt und es keinen Datenverkehr mit hoher Priorität gibt, der Vorrang vor latenzempfindlichem Datenverkehr hat.

Dieser LFI-Ansatz (Link Fragmentation Interleaveing), der auf dem Link Services PIC verwendet wird, unterstützt nur zwei Prioritätsebenen für den Datenverkehr, was nicht ausreicht, um die vier bis acht Weiterleitungsklassen zu übertragen, die von Routern der M- und T-Serie unterstützt werden. Weitere Informationen zur Link Services PIC-Unterstützung von LFI finden Sie unter Konfigurieren der verzögerungssensitiven Paketverschachtelung auf logischen Link Services-Schnittstellen.

Hinweis:

Router der ACX-Serie unterstützen LFI nicht.

Die Konfiguration von LFI und Multiklassen-MLPPP auf demselben Bundle ist weder erforderlich noch wird es unterstützt, da Multiklassen-MLPPP eine Obermenge der Funktionalität darstellt. Wenn Sie MLPPP mit mehreren Klassen konfigurieren, wird LFI automatisch aktiviert.

Hinweis:

Die Junos OS-Implementierung von Multiklassen-MLPPP unterstützt keine Komprimierung von allgemeinen Header-Bytes , die in RFC 2686 als "Präfixelision" bezeichnet wird.

Konfigurieren von Multiclass MLPPP auf LSQ-Schnittstellen

Um MLPPP mit mehreren Klassen auf einer LSQ-Schnittstelle zu konfigurieren, müssen Sie angeben, wie viele Multilink-Klassen ausgehandelt werden sollen, wenn ein Link dem Bundle beitritt, und Sie müssen die Zuordnung einer Weiterleitungsklasse zu einer MLPPP-Klasse mit mehreren Klassen angeben.

  1. Um anzugeben, wie viele Multilink-Klassen ausgehandelt werden sollen, wenn ein Link dem Bundle beitritt, fügen Sie die multilink-max-classes folgende Anweisung ein:

    Sie können diese Anweisung auf den folgenden Hierarchieebenen einbinden:

    • [edit interfaces interface-name unit logical-unit-number]

    • [edit logical-systems logical-system-name interfaces interface-name unit logical-unit-number]

    Die Anzahl der Multilink-Klassen kann zwischen 1 und 8 liegen. Die Anzahl der Multilink-Klassen für jede Weiterleitungsklassen darf die Anzahl der auszuhandelnden Multilink-Klassen nicht überschreiten.

    Hinweis:

    Bei Routern der ACX-Serie können die Multilink-Klassen 1 bis 4 betragen.

  2. Um die Zuordnung einer Weiterleitungsklasse zu einer MLPPP-Klasse mit mehreren Klassen anzugeben, fügen Sie die multilink-class Anweisung auf Hierarchieebene [edit class-of-service fragmentation-maps map-name forwarding-class class-name] ein:

    Die Indexnummer der Multilink-Klasse kann zwischen 0 und 7 liegen. Die Aussage und no-fragmentation die multilink-class Aussagen schließen sich gegenseitig aus.

    Hinweis:

    Bei Routern der ACX-Serie kann die Indexnummer der Multilink-Klasse zwischen 0 und 3 liegen. Router der ACX-Serie unterstützen die Anweisung für die no-fragmentation Fragmentierungszuordnung nicht.

  3. Um die Anzahl der ausgehandelten Multilink-Klassen anzuzeigen, geben Sie den show interfaces lsq-fpc/pic/port.logical-unit-number detail Befehl ein.

Überlegungen zu Link Services IQ (lsq)-Schnittstellen auf Routern der ACX-Serie:

  • Die maximale Anzahl von Multilinkklassen, die ausgehandelt werden sollen, wenn ein Link dem Bundle beitritt, die Sie mithilfe der multilink-max-classes Anweisung auf Hierarchieebene [edit interfaces interface-name unit logical-unit-number] angeben können, ist auf 4 begrenzt.

  • Die Fragmentierungsgröße wird in der Fragmentierungskarte nicht angegeben. Stattdessen wird die für das Bundle konfigurierte Fragmentierungsgröße verwendet.

  • Compressed Real-Time Transport Protocol (RTP) wird nicht unterstützt.

  • HDLC Address and Control Field Compression (ACFC) und PPP Protocol Field Compression (PFC) werden nicht unterstützt.