Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Einrichten von Junos Node Slicing

Wenn Sie das externe Servermodell verwenden, müssen Sie die im Kapitel Vorbereiten der Einrichtung von Junos Node Slicing beschriebenen Verfahren abgeschlossen haben, bevor Sie mit dem Einrichten des Junos Node Slicing fortfahren.

Konfigurieren eines Routers der MX-Serie für den Betrieb im BSYS-Modus (externes Servermodell)

Anmerkung:

Stellen Sie sicher, dass der Router der MX-Serie mit den x86-Servern verbunden ist, wie unter Verbinden der Server und des Routers beschrieben.

Für Junos Node Slicing muss der Router der MX-Serie als Basissystem (BSYS) fungieren.

Führen Sie die folgenden Schritte aus, um einen Router der MX-Serie für den Betrieb im BSYS-Modus zu konfigurieren:

  1. Installieren Sie das Junos OS-Paket für Router der MX-Serie auf beiden Routing-Modulen des Routers.

    Sie können das Junos OS-Paket von der Seite "Downloads " herunterladen. Klicken Sie auf der Seite "Downloads" auf "Alle Produkte anzeigen " und wählen Sie dann das Gerätemodell der MX-Serie aus, um das unterstützte Junos OS-Paket herunterzuladen.

  2. Führen Sie den show chassis hardware Befehl auf dem Router der MX-Serie aus und stellen Sie sicher, dass die Transceiver auf beiden Control Boards (CBs) erkannt werden. Der folgende Text stellt eine Beispielausgabe dar:
  3. Wenden Sie auf dem Router der MX-Serie die folgenden Konfigurationsanweisungen an:
    Anmerkung:

    Auf MX960-Routern müssen Sie den network-services Modus als enhanced-ip oder enhanced-ethernetkonfigurieren. Auf MX2020-Routern ist die enhanced-ip Konfigurationsanweisung bereits standardmäßig aktiviert.

    Der Router arbeitet nun im BSYS-Modus.

Anmerkung:

Von einem Router im BSYS-Modus wird nicht erwartet, dass er andere Funktionen ausführt als die, die zum Ausführen der grundlegenden Verwaltungsfunktionen in Junos Node Slicing erforderlich sind. Es wird z. B. nicht erwartet, dass das BSYS über Schnittstellenkonfigurationen verfügt, die den im System installierten Linecards zugeordnet sind. Stattdessen verfügen Gastnetzwerkfunktionen (GNFs) über die vollwertigen Routerkonfigurationen.

Installieren des JDM-RPM-Pakets auf x86-Servern mit RHEL (externes Servermodell)

Stellen Sie vor der Installation des JDM-RPM-Pakets für x86-Server sicher, dass Sie die zusätzlichen Pakete installiert haben, wie unter Installieren zusätzlicher Pakete für JDM beschrieben.

Laden Sie das JDM-RPM-Paket für x86-Server mit RHEL wie folgt herunter, und installieren Sie es:

Um das Paket auf x86-Servern mit RHEL zu installieren, führen Sie auf jedem der Server die folgenden Schritte aus:

  1. Laden Sie das JDM-RPM-Paket von der Download-Seite herunter.
    Wählen Sie auf der Seite "Downloads " die Option "Alle Produkte > Junos Node Slicing - Junos Device Manager " aus, um das Paket mit dem Namen JDM für Redhat herunterzuladen.
  2. Deaktivieren Sie SELINUX und starten Sie den Server neu.

    Ab RHEL 9 können Sie SELINUX deaktivieren, indem Sie das grubby Paket verwenden, um den Bootloader so zu konfigurieren, dass er der Kernel-Befehlszeile hinzugefügt selinux=0 wird.

    root@Linux Server0# grubby --update-kernel ALL --args selinux=0

    In RHEL-Versionen vor RHEL 9 können Sie SELINUX deaktivieren, indem Sie den Wert für SELINUX to disabled in der Datei /etc/selinux/config festlegen.

    Sobald SELINUX deaktiviert ist, können Sie den Server neu starten.

    root@Linux Server0# reboot

  3. Installieren Sie das JDM RPM-Paket (gekennzeichnet durch die Erweiterung .rpm ) mit dem folgenden Befehl. Im Folgenden finden Sie ein Beispiel für das verwendete JDM-RPM-Paket:

    root@Linux Server0# rpm -ivh jns-jdm-1.0-0-17.4R1.13.x86_64.rpm

Wiederholen Sie die Schritte für den zweiten Server.

Installieren des JDM-Ubuntu-Pakets auf x86-Servern mit Ubuntu 20.04 (externes Servermodell)

Stellen Sie vor der Installation des JDM-Ubuntu-Pakets für x86-Server sicher, dass Sie die zusätzlichen Pakete installiert haben. Weitere Informationen finden Sie unter Zusätzliche Pakete für JDM installieren.

Laden Sie das JDM-Ubuntu-Paket für x86-Server mit Ubuntu 20.04 wie folgt herunter und installieren Sie es:

Um das JDM-Paket auf den x86-Servern unter Ubuntu 20.04 zu installieren, führen Sie auf jedem der Server die folgenden Schritte aus:

  1. Laden Sie das JDM-Ubuntu-Paket von der Seite Downloads herunter.
    Wählen Sie auf der Seite "Downloads " die Option "Alle Produkte > Junos Node Slicing - Junos Device Manager " aus, um das Paket mit dem Namen JDM for Ubuntu herunterzuladen.
  2. Deaktivieren apparmor Sie den Server und starten Sie ihn neu.

    root@Linux Server0# systemctl stop apparmor

    root@Linux Server0# systemctl disable apparmor

    root@Linux Server0# reboot

  3. Installieren Sie das JDM-Ubuntu-Paket (gekennzeichnet durch die Erweiterung .deb ) mit dem folgenden Befehl. Ein Beispiel für das verwendete JDM-Ubuntu-Paket ist unten dargestellt:

Wiederholen Sie die Schritte für den zweiten Server.

JDM auf x86-Servern konfigurieren (externes Servermodell)

Führen Sie die folgenden Schritte aus, um JDM auf jedem der x86-Server zu konfigurieren.

  1. Starten Sie auf jedem Server das JDM, und weisen Sie die Identitäten für die beiden Server wie folgt bzw server0 server1. zu:

    Führen Sie auf einem Server den folgenden Befehl aus:

    root@Linux server0# jdm start server=0

    Führen Sie auf dem anderen Server den folgenden Befehl aus:

    root@Linux server1# jdm start server=1

    Anmerkung:

    Die Identitäten können nach der Zuweisung nicht mehr geändert werden, ohne das JDM zu deinstallieren und dann neu zu installieren:

  2. Rufen Sie die JDM-Konsole auf jedem Server auf, indem Sie den folgenden Befehl ausführen:

    root@Linux Server0# jdm console

    Anmerkung:

    Ab Junos OS Version 23.2R1 wird die Meldung 'Connected to domain jdm' nicht mehr angezeigt, wenn das JDM das Pod Manager-Tool (podman) verwendet. Beachten Sie, dass nur Server mit RHEL 9 Podman-basierte JDMs unterstützen.

  3. Melden Sie sich als root Benutzer an.
  4. Rufen Sie die JDM-CLI auf, indem Sie den folgenden Befehl ausführen:

    root@jdm% cli

    Anmerkung:

    Die JDM-CLI ähnelt der Junos OS-CLI.

  5. Legen Sie das Root-Passwort für das JDM fest.

    root@jdm# set system root-authentication plain-text-password

    Anmerkung:
    • Das JDM-Root-Passwort muss auf beiden Servern identisch sein.

    • Ab Junos OS Version 18.3R1 können Sie Nicht-Root-Benutzer in JDM erstellen. Weitere Informationen finden Sie unter Konfigurieren von Nicht-Root-Benutzern in JDM (Junos Node Slicing).

    • Die JDM-Installation blockiert den Zugriff auf den libvirt-Port von außerhalb des Hosts.

  6. Übernehmen Sie die Änderungen:

    root@jdm# commit

  7. Geben Sie die Eingabetaste Ctrl-PQ ein, um die JDM-Konsole zu verlassen.
  8. Führen Sie auf dem Linux-Host den ssh jdm Befehl aus, um sich bei der JDM-Shell anzumelden.

Konfigurieren von Nicht-Root-Benutzern in JDM (Junos Node Slicing)

Im externen Servermodell können Sie ab Junos OS Version 18.3R1 Nicht-Root-Benutzer im Juniper Device Manager (JDM) für Junos Node Slicing erstellen. Sie benötigen ein Root-Konto, um einen Nicht-Root-Benutzer zu erstellen. Die Nicht-Root-Benutzer können sich über die JDM-Konsole oder über SSH bei JDM anmelden. Jedem Nicht-Root-Benutzer wird ein Benutzername zugewiesen und eine vordefinierte Anmeldeklasse zugewiesen.

Die Nicht-Root-Benutzer können die folgenden Funktionen ausführen:

  • Interagieren Sie mit JDM.

  • Orchestrieren und Verwalten von Gastnetzwerkfunktionen (GNFs).

  • Überwachen Sie den Status des JDM, des Hostservers und der GNFs mithilfe von JDM-CLI-Befehlen.

Anmerkung:

Die Nicht-Root-Benutzerkonten funktionieren nur innerhalb von JDM, nicht auf dem Hostserver.

So erstellen Sie Nicht-Root-Benutzer in JDM:

  1. Melden Sie sich bei JDM als Root-Benutzer an.
  2. Definieren Sie einen Benutzernamen und weisen Sie dem Benutzer eine vordefinierte Anmeldeklasse zu.

    root@jdm# set system login user username class predefined-login-class

  3. Legen Sie das Kennwort für den Benutzer fest.

    root@jdm# set system login user username authentication plain-text-password

  4. Bestätigen Sie die Änderungen.

    root@jdm# commit

Tabelle 1 enthält die vordefinierten Anmeldeklassen, die JDM für Nicht-Root-Benutzer unterstützt:

Tabelle 1: Vordefinierte Anmeldeklassen

Login-Klasse

Erlaubnisse

Superuser

  • Erstellen, Löschen, Starten und Stoppen von GNFs.

  • Starten und stoppen Sie Daemons innerhalb des JDM.

  • Führen Sie alle CLIs aus.

  • Greifen Sie auf die Shell zu.

Operator

  • Starten und Stoppen von GNFs.

  • Starten Sie die Daemons im JDM neu.

  • Führen Sie alle grundlegenden CLI-Befehle aus (mit Ausnahme derjenigen, die die GNFs oder die JDM-Konfiguration ändern).

schreibgeschützt

Ähnlich wie die Operator-Klasse, mit dem Unterschied, dass die Benutzer Daemons nicht innerhalb von JDM neu starten können.

unbefugt

Ping- und Traceroute-Operationen.

JDM-Schnittstellen konfigurieren (externes Servermodell)

Wenn Sie die im JDM konfigurierten Serverschnittstellen ändern möchten, führen Sie die folgenden Schritte aus:

Im JDM müssen Sie Folgendes konfigurieren:

  • Die beiden 10-Gbit/s-Server-Ports, die mit dem Router der MX-Serie verbunden sind.

  • Der Serverport, der als JDM-Management-Port verwendet werden soll.

  • Der Serverport, der als GNF-Verwaltungsport verwendet werden soll.

Daher müssen Sie auf jedem Server Folgendes identifizieren, bevor Sie mit der Konfiguration der Ports beginnen:

  • Die Serverschnittstellen p3p1 (z. B. und p3p2), die mit CB0 und CB1 auf dem Router der MX-Serie verbunden sind.

  • Die Serverschnittstellen em2 (z. B. und em3), die für die JDM-Verwaltung und die GNF-Verwaltung verwendet werden sollen.

Weitere Informationen finden Sie in der Abbildung Verbinden der Server und des Routers.

Anmerkung:
  • Sie benötigen diese Informationen sowohl für als auch server0 server1für .

  • Diese Schnittstellen sind nur auf dem Linux-Host sichtbar.

Um die x86-Serverschnittstellen in JDM zu konfigurieren, führen Sie auf beiden Servern die folgenden Schritte aus:

  1. Ein server0, wenden Sie die folgenden Konfigurationsanweisungen an:
  2. Wiederholen Sie Schritt 1 am server1.
    Anmerkung:

    Stellen Sie sicher, dass Sie sowohl für als auch server0 server1für .

  3. Geben Sie die ssh Identitäten zwischen den beiden x86-Servern frei.

    Führen Sie sowohl bei als server1auch server0 den folgenden JDM-CLI-Befehl aus:

    root@jdm> request server authenticate-peer-server

    Anmerkung:

    Der request server authenticate-peer-server Befehl zeigt eine CLI-Meldung an, in der Sie aufgefordert werden, sich mit ssh beim Peerserver anzumelden, um den Vorgang zu überprüfen. Um sich beim Peer-Server anzumelden, müssen Sie .ip netns exec jdm_nv_ns ssh root@jdm-server1

    Um sich beispielsweise über server0beim Peer-Server anzumelden, beenden Sie die JDM-CLI, und verwenden Sie den folgenden Befehl in der JDM-Shell:

    Verwenden Sie den folgenden Befehl, um sich vom Peerserver aus beim Peerserver server1anzumelden:

  4. Wenden Sie die Konfigurationsanweisungen im JDM-CLI-Konfigurationsmodus an, um die IP-Adresse der JDM-Verwaltung, die Standardroute und den JDM-Hostnamen für jede JDM-Instanz festzulegen, wie im folgenden Beispiel gezeigt.
    Anmerkung:
    • Die Verwaltungs-IP-Adresse und die Standardroute müssen spezifisch für Ihr Netzwerk sein.

    Denken Sie daran, die Commit-Synchronisierung wie im obigen Schritt gezeigt zu konfigurieren, um sicherzustellen, dass die zufälligen MAC-Präfixe, die von den JDM-Instanzen generiert werden, synchron sind. Das zufällige MAC-Präfix ist Teil einer MAC-Adresse, die einem nicht lizenzierten GNF zugeordnet ist. JDM generiert dieses pseudozufällige MAC-Präfix, wenn es zum ersten Mal gebootet wird, und generiert es nicht erneut. Um zu überprüfen, ob die zufälligen MAC-Präfixe synchron sind, verwenden Sie den CLI-Befehl show server connections oder show system random-mac-prefix bei JDM. Siehe auch: Zuweisen von MAC-Adressen zu GNF.

    Anmerkung:
    • jmgmt0 steht für JDM Management Port. Dies unterscheidet sich vom Linux-Hostverwaltungsport. Sowohl auf JDM- als auch auf die Linux-Host-Management-Ports kann unabhängig vom Management-Netzwerk aus zugegriffen werden.

    • Sie müssen den SSH-Schlüsselaustausch wie in Schritt 3 beschrieben durchgeführt haben, bevor Sie Schritt 4 versuchen. Wenn Sie Schritt 4 ausführen, ohne Schritt 3 abzuschließen, zeigt das System eine Fehlermeldung an, wie im folgenden Beispiel gezeigt:

      Failed to fetch JDM software version from server1. If authentication of peer server is not done yet, try running request server authenticate-peer-server.

  5. Führen Sie auf jedem Server den folgenden JDM-CLI-Befehl aus, und stellen Sie sicher, dass alle Schnittstellen verfügbar sind.
    root@jdm> show server connections
Anmerkung:

JDM-Beispielkonfigurationen finden Sie unter Beispielkonfiguration für Junos Node Slicing.

Wenn Sie die im JDM konfigurierten Serverschnittstellen ändern möchten, müssen Sie die GNFs löschen (falls sie konfiguriert wurden), die Schnittstellen wie oben beschrieben konfigurieren, JDM von der Shell aus neu starten, die GNFs neu konfigurieren und aktivieren und die Änderungen übernehmen.

Ab Junos OS Version 19.2R1 unterstützt Junos Node Slicing die Zuweisung eines weltweit eindeutigen MAC-Adressbereichs (bereitgestellt von Juniper Networks) für GNFs.

Konfigurieren des Routers der MX-Serie für den Betrieb im Gehäusemodus

Anmerkung:
  • Um Junos Node Slicing im Gehäuse zu konfigurieren, muss auf dem Router der MX-Serie einer der folgenden Routing-Engines-Typen installiert sein:

    • RE-S-X6-128G (verwendet in MX480- und MX960-Routern)

    • REMX2K-X8-128G (verwendet in MX2010- und MX2020-Routern)

    • REMX2008-X8-128G (verwendet in MX2008-Routern)

Beim In-Chassis-Modell werden das Basissystem (BSYS), der Juniper Device Manager (JDM) und alle Gastnetzwerkfunktionen (GNFs) innerhalb der Routing-Engine des Routers der MX-Serie ausgeführt. BSYS und GNFs werden auf dem Host als virtuelle Maschinen (VMs) ausgeführt. Zunächst müssen Sie den Ressourcenbedarf des eigenständigen Routers der MX-Serie wie folgt reduzieren:

  1. Stellen Sie sicher, dass auf beiden Routing-Modulen (re0 und re1) im Router der MX-Serie das erforderliche VM-Hostpaket (Beispiel: junos-vmhost-install-mx-x86-64-19.2R1.tgz) installiert ist. Das VM-Hostpaket sollte 19.1R1 oder höher sein.
  2. Wenden Sie die folgende Konfiguration an, und starten Sie dann den VM-Host auf beiden Routingmodulen (re0 und re1) neu.

    Wenn diese Konfiguration angewendet wird, und nach dem Neustart, schrumpft der Ressourcenbedarf der Routing-Engine der Junos-VM auf dem Router der MX-Serie, um GNF-VMs aufzunehmen. Eine Junos-VM mit geänderter Größe, die jetzt als Basissystem (BSYS) auf der Routing-Engine der MX-Serie ausgeführt wird, verfügt über die folgenden Ressourcen:

    • CPU-Kerne: 1 (physisch)

    • DRAM: 16 GB

    • Speicher: 14 GB (/var)

Anmerkung:

Alle Dateien am Speicherort /var/ , einschließlich der Protokolldateien (/var/log) und Coredateien (/var/crash), werden gelöscht, wenn Sie den VM-Host nach dem Konfigurieren der set vmhost resize vjunos compact Anweisung neu starten. Sie müssen alle Dateien speichern, die sich derzeit in /var/log oder /var/crash befinden, bevor Sie mit der Konfiguration der Größenänderung des VM-Hosts fortfahren, wenn Sie sie als Referenz verwenden möchten.

Installieren und Konfigurieren von JDM für In-Chassis-Modelle

Die in diesem Thema aufgeführten Schritte gelten nur für die Junos Nodes Slicing-Konfiguration im Gehäuse.

Installieren des JDM-RPM-Pakets auf einem Router der MX-Serie (In-Chassis-Modell)

Bevor Sie das Juniper Device Manager (JDM) RPM-Paket auf einem Router der MX-Serie installieren, müssen Sie den Router der MX-Serie so konfigurieren, dass er im BSYS-Modus im Gehäuse betrieben werden kann. Weitere Informationen finden Sie unter Konfigurieren des Routers der MX-Serie für den Betrieb im Gehäusemodus.

Anmerkung:

Das RPM-Paket jns-jdm-vmhost ist für die Bereitstellung von Junos Node Slicing im Gehäuse vorgesehen, während das RPM-Paket jns-jdm für externe Server verwendet wird, die auf Junos Node Slicing basieren.

  1. Laden Sie das JDM-RPM-Paket (JDM für VMHOST) von der Seite Downloads herunter.
    Wählen Sie auf der Seite "Downloads " die Option "Alle Produkte > Junos Node Slicing - Junos Device Manager " aus, um das Paket mit dem Namen JDM for VMHOST herunterzuladen.
  2. Installieren Sie das JDM-RPM-Paket auf beiden Routing-Engines (re0 und re1), indem Sie den im folgenden Beispiel gezeigten Befehl verwenden:
  3. Führen Sie den show vmhost status Befehl aus, um die vJunos Resource Status auf beiden Routing-Engines anzuzeigen.

JDM konfigurieren (In-Chassis-Modell)

Führen Sie die folgenden Schritte aus, um JDM auf beiden Routing-Engines eines Routers der MX-Serie zu konfigurieren:

  1. Wenden Sie den folgenden Befehl auf beiden Routing-Engines an, um JDM zu starten:

    Ab Junos OS 19.3R1 zeigt die JDM-Konsole die Meldung "Domain JDM Started" nicht mehr an. Diese Meldung wird jedoch zu den Systemprotokollen hinzugefügt, wenn das JDM gestartet wird.

    Anmerkung:

    Wenn Hyperthreading deaktiviert ist, wird eine Warnung angezeigt, wenn Sie den Befehl request vmhost jdm starteingeben, wie im folgenden Beispiel gezeigt:

  2. Verwenden Sie den Befehl show vmhost jdm status , um zu überprüfen, ob das JDM running.
  3. Melden Sie sich nach einigen Sekunden bei JDM an.
    Anmerkung:
    • Sie benötigen Root-Benutzerrechte für das BSYS, um sich bei JDM anmelden zu können.

    • Das Kennwort für das JDM-Root-Konto im Gehäuse kann sich vom Kennwort für das Junos-Root-Konto unterscheiden.

    • Es dauert ungefähr 10 Sekunden, bis JDM startet. Wenn Sie den request vmhost jdm login Befehl eingeben, bevor JDM gestartet wird, erhalten Sie möglicherweise die folgende Meldung:

  4. Rufen Sie die JDM-CLI auf, indem Sie den folgenden Befehl ausführen:
  5. Wenden Sie im Konfigurationsmodus die im folgenden Beispiel gezeigten Konfigurationen an:
    Anmerkung:

    Bei den im folgenden Beispiel gezeigten IP-Adressen handelt es sich um Beispiele. Ersetzen Sie sie durch die tatsächlichen IP-Adressen in Ihrer Konfiguration.

  6. Legen Sie im Konfigurationsmodus das Root-Kennwort für das JDM auf beiden Routing-Engines fest und führen Sie einen Commit durch.
    Anmerkung:
    • Das JDM unterstützt nur das Root-Benutzerverwaltungskonto.

  7. Geben Sie im Betriebsmodus den folgenden Befehl auf beiden Routing-Engines ein, um den öffentlichen SSH-Schlüssel in das Peer-JDM zu kopieren.
    Anmerkung:

    Sie müssen das Root-Kennwort des Peer-JDM eingeben, wenn Sie dazu aufgefordert werden.

  8. Wenden Sie im Konfigurationsmodus die folgenden Befehle an:
Anmerkung:
  • Beim In-Chassis Junos Node Slicing ist es nicht möglich, Datenverkehr zwischen den Verwaltungsschnittstellen derselben Routing-Engine anzupingen oder zu senden (z. B. von der Routing-Engine 0 von GNF1 zur Routing-Engine 0 von GNF2 oder von der Routing-Engine 0 von GNF1 zu JDM).

  • Im In-Chassis-Modus können Sie keine scp Operation zwischen der BSYS- und der JDM-Verwaltungsschnittstelle ausführen.

  • Sie müssen den SSH-Schlüsselaustausch wie in Schritt 7 beschrieben durchgeführt haben, bevor Sie Schritt 8 versuchen. Wenn Sie Schritt 8 ausführen, ohne Schritt 7 abzuschließen, zeigt das System eine Fehlermeldung an, wie im folgenden Beispiel gezeigt:

    Failed to fetch JDM software version from server1. If authentication of peer server is not done yet, try running request server authenticate-peer-server.

Ab Junos OS Version 19.2R1 unterstützt Junos Node Slicing die Zuweisung eines weltweit eindeutigen MAC-Adressbereichs (bereitgestellt von Juniper Networks) für GNFs.

Zuweisen von MAC-Adressen zum GNF

Ab Junos OS Version 19.2R1 unterstützt Junos Node Slicing die Zuweisung eines weltweit eindeutigen MAC-Adressbereichs (bereitgestellt von Juniper Networks) für GNFs.

Um den weltweit eindeutigen MAC-Adressbereich für die GNFs zu erhalten, wenden Sie sich an Ihren Ansprechpartner bei Juniper Networks und geben Sie Ihre GNF-Lizenz-SSRN (Software Support Reference Number) an, die Ihnen beim Kauf der GNF-Lizenz elektronisch zugesandt wurde. Informationen zur Verwendung der SSRN in Ihrer GNF-Lizenz finden Sie im Artikel KB11364 der Wissensdatenbank von Juniper Networks.

Für jede GNF-Lizenz erhalten Sie dann eine "erweiterte SSRN", die den weltweit eindeutigen MAC-Adressbereich enthält, der von Juniper Networks für diese GNF-Lizenz zugewiesen wurde. Anschließend müssen Sie diese erweiterte SSRN in der JDM-CLI wie folgt konfigurieren:


Anmerkung:
  • Eine erweiterte SSRN darf nur für eine GNF-ID verwendet werden. Im JDM werden die GNF-VMs als virtuelle Netzwerkfunktionen (VNFs) bezeichnet. Die GNF-ID ist eines seiner Attribute. Die Attribute einer VNF werden im folgenden Abschnitt Gastnetzwerkfunktionen konfigurieren ausführlich beschrieben.

  • Standardmäßig wird die erweiterte SSRN validiert. Sollten Sie diese Validierung einmal überspringen müssen, können Sie das Attribut no-validate in der CLI wie folgt verwenden: Beispiel: set system vnf-license-supplement vnf-id gnf-id license-supplement-string augmented-ssrn-string [no-validate].

Anmerkung:
  • Sie können die erweiterte SSRN nur dann für eine GNF-ID konfigurieren, wenn die GNF nicht betriebsbereit ist und noch nicht bereitgestellt wurde. Sie müssen zuerst die erweiterte SSRN für eine GNF-ID konfigurieren, bevor Sie die GNF konfigurieren. Wenn die GNF-ID bereits bereitgestellt wurde, müssen Sie zuerst die GNF für diese GNF-ID auf beiden Servern (im Falle des externen Servermodells) oder auf beiden Routing-Engines (im Fall des Junos Node Slicing-Modells im Gehäuse) löschen, bevor Sie die erweiterte SSRN konfigurieren.

  • Ebenso müssen Sie zuerst die GNF für eine bestimmte GNF-ID auf beiden Servern (im Falle des externen Servermodells) oder auf beiden Routing-Engines (im Fall des Junos-Node Slicing-Modells im Gehäuse) löschen, bevor Sie die erweiterte SSRN für die GNF-ID löschen.

  • Sie können keine erweiterte SSRN auf eine GNF anwenden, die auf Junos OS 19.1R1 oder älter basiert.

  • Verwenden Sie den Junos CLI-Befehl show chassis mac-addresses , um zu bestätigen, dass der zugewiesene MAC-Adressbereich für eine GNF angewendet wurde, wenn die GNF in Betrieb genommen wird – die Ausgabe stimmt mit einer Teilzeichenfolge der erweiterten SSRN überein.

Konfigurieren von Gastnetzwerkfunktionen

Die Konfiguration einer Gastnetzwerkfunktion (GNF) umfasst zwei Aufgaben, von denen eine am BSYS und die andere am JDM ausgeführt wird.

Anmerkung:
  • Bevor Sie versuchen, eine GNF zu erstellen, müssen Sie sicherstellen, dass Sie die Commit-Synchronisation als Teil der JDM-Konfiguration konfiguriert haben, damit die zufälligen MAC-Präfixe, die von den JDM-Instanzen generiert werden, synchron sind. Um zu überprüfen, ob die zufälligen MAC-Präfixe synchron sind, verwenden Sie den CLI-Befehl show server connections oder show system random-mac-prefix bei JDM. Wenn die zufälligen MAC-Präfixe nicht synchron sind, löst die Software den folgenden Hauptalarm aus: Mismatched MAC address pool between GNF RE0 and GNF RE1. Um den Alarm anzuzeigen, verwenden Sie den Befehl show system alarms.
  • Bevor Sie versuchen, eine GNF zu erstellen, müssen Sie sicherstellen, dass die Server (oder Routing-Engines im Fall des In-Chassis-Modells) über ausreichende Ressourcen (CPU, Arbeitsspeicher, Speicher) für diese GNF verfügen.

  • Sie müssen jedem GNF eine ID zuweisen. Diese ID muss am BSYS und am JDM identisch sein.

Geben Sie im BSYS eine GNF an, indem Sie ihr eine ID und einen Satz von Linecards zuweisen, indem Sie die Konfiguration anwenden, wie im folgenden Beispiel gezeigt:

user@router# set chassis network-slices guest-network-functions gnf 1 fpcs 4

user@router# commit

Im JDM werden die GNF-VMs als virtuelle Netzwerkfunktionen (VNFs) bezeichnet. Eine VNF hat die folgenden Attribute:

  • Ein VNF-Name.

  • EINE GNF-ID. Diese ID muss mit der GNF-ID übereinstimmen, die im BSYS verwendet wird.

  • Der Plattformtyp der MX-Serie.

  • Ein Junos OS-Image für die GNF, das von der Juniper-Downloadseite heruntergeladen werden kann.

    Wählen Sie auf der Seite "Downloads " die Option "Alle Produkte > Junos Node Slicing – Guest Network Function " aus, um ein Junos-Image für die GNF herunterzuladen.

  • Die VNF-Serverressourcenvorlage.

Führen Sie im JDM die folgenden Schritte aus, um eine VNF zu konfigurieren:

  1. Verwenden Sie den JDM-Shell-Befehl scp , um das Junos OS Node Slicing-Image für GNF abzurufen und im lokalen JDM-Verzeichnis /var/jdm-usr/gnf-images abzulegen (wiederholen Sie diesen Schritt, um die GNF-Konfigurationsdatei abzurufen).

  2. Weisen Sie dieses Image einer GNF zu, indem Sie den Befehl JDM CLI verwenden, wie im folgenden Beispiel gezeigt:

  3. Konfigurieren Sie die VNF, indem Sie die Konfigurationsanweisungen anwenden, wie im folgenden Beispiel gezeigt:

    root@test-jdm-server0# set virtual-network-functions test-gnf id 1

    root@test-jdm-server0# set virtual-network-functions test-gnf chassis-type mx2020

    root@test-jdm-server0# set virtual-network-functions test-gnf resource-template 2core-16g

    root@test-jdm-server0# set system vnf-license-supplement vnf-id 1 license-supplement-string RTU00023003204-01-AABBCCDDEE00-1100-01-411C

    Konfigurieren Sie für In-Chassis-Modelle nicht den Plattformtyp (set virtual-network-functions test-gnf chassis-type mx2020). Es wird automatisch erkannt.

    Ab Junos OS Version 19.2R1 unterstützt Junos Node Slicing die Zuweisung eines weltweit eindeutigen MAC-Adressbereichs (bereitgestellt von Juniper Networks) für GNFs.

    Wenn Sie auch eine Baseline- oder anfängliche Junos OS-Konfiguration für eine GNF angeben möchten, bereiten Sie die GNF-Konfigurationsdatei (Beispiel: /var/jdm-usr/gnf-config/test-gnf.conf) sowohl auf den Servern (server0 und server1) für das externe Servermodell als auch auf den Routing-Engines (re0 und re1) für das In-Chassis-Modell vor und geben Sie den Dateinamen als Parameter in der base-config Anweisung an, wie unten gezeigt:

    root@test-jdm-server0# set virtual-network-functions test-gnf base-config /var/jdm-usr/gnf-config/test-gnf.conf

    root@test-jdm-server0# commit synchronize

    Anmerkung:

    Stellen Sie sicher, dass:

    • Sie verwenden dieselbe GNF-ID wie diejenige, die zuvor in BSYS angegeben wurde.

    • Der Dateiname der Basiskonfiguration (mit dem Pfad) ist auf beiden Servern bzw. Routingmodulen identisch.

    • Die Syntax des Inhalts der Baselinedatei ist im Junos OS-Konfigurationsformat.

    • Der hier verwendete GNF-Name ist derselbe wie der, der dem Junos OS-Image für GNF in Schritt 2 zugewiesen wurde.

  4. Um zu überprüfen, ob die VNF erstellt wurde, führen Sie den folgenden JDM-CLI-Befehl aus:

    root@test-jdm-server0> show virtual-network-functions test-gnf

  5. Melden Sie sich bei der VNF-Konsole an, indem Sie den folgenden JDM-CLI-Befehl ausführen:

    root@test-jdm-server0> request virtual-network-functions test-gnf console

    Anmerkung:

    Denken Sie daran, sich von der VNF-Konsole abzumelden, nachdem Sie Ihre Konfigurationsaufgaben abgeschlossen haben. Es wird empfohlen, ein Leerlauf-Timeout mit dem Befehl set system login idle-timeout minutesfestzulegen. Andernfalls, wenn ein Benutzer vergisst, sich von der VNF-Konsolensitzung abzumelden, kann sich ein anderer Benutzer anmelden, ohne die Anmeldeinformationen anzugeben. Weitere Informationen finden Sie unter Systemanmeldung (Junos Node Slicing).

  6. Konfigurieren Sie die VNF auf die gleiche Weise wie eine Routing-Engine der MX-Serie.

Anmerkung:
  • Die CLI-Eingabeaufforderung für das In-Chassis-Modell lautet root@jdm# .

  • Beispielkonfigurationen finden Sie unter Beispielkonfiguration für Junos Node Slicing.

  • Wenn Sie im Falle des externen Servermodells zuvor physische x86-CB-Schnittstellen oder die GNF-Verwaltungsschnittstelle von der Linux-Shell heruntergefahren haben (mit dem Befehl ifconfig interface-name down), werden diese automatisch beim Start des GNF aufgerufen.

Konfigurieren von abstrahierten Fabric-Schnittstellen zwischen einem Paar von GNFs

Das Erstellen einer abstrahierten Fabric-Schnittstelle (af) zwischen zwei Gastnetzwerkfunktionen (GNFs) umfasst Konfigurationen sowohl am Basissystem (BSYS) als auch am GNF. Abstrahierte Fabric-Schnittstellen werden auf GNFs basierend auf der BSYS-Konfiguration erstellt, die dann an diese GNFs gesendet wird.

Anmerkung:
  • Zwischen einem Paar von GNFs kann nur eine af Schnittstelle konfiguriert werden.

  • In einem Junos Node Slicing-Setup, bei dem jeder GNF eine einzelne FPC zugewiesen ist, fällt die zugehörige abstrahierte Fabric-Schnittstelle aus, wenn die Packet Forwarding Engines der FPC, die der Remote-GNF zugewiesen sind, über die Fabric nicht mehr erreichbar sind. Beispiele für Fehler, die dieses Verhalten verursachen können, sind PFE-Fabric-Erreichbarkeitsfehler und CMERROR-Ereignisse, die eine Aktion auslösen pfe disable (verwenden Sie den show chassis fpc errors Befehl für die Details). Wenn einem GNF mehrere FPCs zugewiesen sind, werden die lokalen FPCs, die melden, dass alle Peer-Paketweiterleitungs-Engines ausgefallen sind, von der Bestimmung des abstrahierten Fabric-Schnittstellenstatus entfernt.

So konfigurieren af Sie Schnittstellen zwischen einem GNF-Paar:

  1. Wenden Sie am BSYS die Konfiguration wie im folgenden Beispiel gezeigt an:

    In diesem Beispiel af2 ist die abstrahierte Fabric-Schnittstelleninstanz 2 und af4 die abstrahierte Fabric-Schnittstelleninstanz 4.

    Anmerkung:

    Die zulässigen af Schnittstellenwerte reichen von af0 bis af9.

    Die GNF-Schnittstelle af ist sichtbar und aktiv. Sie können eine af Schnittstelle wie jede andere Schnittstelle konfigurieren.

  2. Wenden Sie im GNF die Konfiguration wie im folgenden Beispiel gezeigt an:

Anmerkung:
  • Wenn Sie Konfigurationen der MPLS-Familie auf die af Schnittstellen anwenden möchten, können Sie den Befehl set interfaces af-name unit logical-unit-number family mpls auf beide GNFs anwenden, zwischen denen die af Schnittstelle konfiguriert ist.

  • Beispielkonfigurationen af finden Sie unter Beispielkonfiguration für Junos Node Slicing.

Class of Service für abstrahierte Fabric-Schnittstellen

Die Class of Service (CoS)-Paketklassifizierung weist ein eingehendes Paket basierend auf der Weiterleitungsklasse des Pakets einer Ausgabewarteschlange zu. Weitere Informationen finden Sie im CoS-Konfigurationsleitfaden .

In den folgenden Abschnitten werden die Weiterleitungszuordnung von Klassen zu Warteschlangen sowie die Verhaltensaggregat-Klassifizierer (BA) und Umschreibungen erläutert, die von den abstrahierten Fabricschnittstellen (af) unterstützt werden.

Weiterleiten von Klassen-zu-Warteschlangen-Zuordnungen

Eine af Schnittstelle ist eine simulierte WAN-Schnittstelle mit den meisten Funktionen jeder anderen Schnittstelle, mit der Ausnahme, dass der Datenverkehr, der einer Remote-Paketweiterleitungs-Engine zugewiesen ist, weiterhin die beiden Fabric-Warteschlangen (niedrige/hohe Priorität) durchlaufen muss.

Anmerkung:

Derzeit arbeitet eine af Schnittstelle nur im 2-Warteschlangen-Modus. Daher sind alle warteschlangenbasierten Funktionen wie Planung, Überwachung und Strukturierung nicht auf einer af Schnittstelle verfügbar.

Pakete auf der af Schnittstelle erben die Fabric-Warteschlange, die durch die Fabric-Priorität bestimmt wird, die für die Weiterleitungsklasse konfiguriert ist, zu der das Paket gehört. Sehen Sie sich z. B. die folgende Konfiguration der Weiterleitungsklasse für die Warteschlange an:

[Bearbeiten]

Wie im vorherigen Beispiel gezeigt, untersucht der Code im Weiterleitungspfad bei der Klassifizierung eines Pakets in die Weiterleitungsklasse VoiceSigdie Fabric-Priorität dieser Weiterleitungsklasse und entscheidet, welche Fabric-Warteschlange für dieses Paket ausgewählt werden soll. In diesem Fall wird die Fabric-Warteschlange mit hoher Priorität ausgewählt.

BA-Klassifikatoren und -Umschreibungen

Der BA-Klassifizierer (Behavior Aggregate) ordnet einen CoS-Wert (Class-of-Service) einer Weiterleitungsklasse und einer Verlustpriorität zu. Die Kombination aus Weiterleitungsklasse und Verlustpriorität bestimmt die CoS-Behandlung des Pakets im Router. Die folgenden BA-Klassifizierer und -Umschreibungen werden unterstützt:

  • Inet-Precedence-Klassifikator und -Umschreibung

  • DSCP-Klassifizierung und -Umschreibung

  • MPLS EXP-Klassifikator und -Umschreibung

    Sie können auch Umschreibungen für IP-Pakete anwenden, die in den MPLS-Tunnel eingehen, und sowohl EXP- als auch IPv4-Service-Bits (ToS) neu schreiben. Dieser Ansatz funktioniert wie bei anderen normalen Schnittstellen.

  • DSCP v6-Klassifikator und -Umschreibung für IP v6-Datenverkehr

Anmerkung:

Folgendes wird nicht unterstützt:

  • IEEE 802.1-Klassifizierung und -Umschreibung

  • IEEE 802.1AD (QinQ)-Klassifizierung und -Umschreibung

Weitere Informationen zu CoS-BA-Klassifikatoren finden Sie im CoS-Konfigurationsleitfaden .

Optimieren des Fabric-Pfads für eine abstrahierte Fabric-Schnittstelle

Sie können den Datenverkehr, der über die abstrahierten Fabric-Schnittstellen (af) zwischen zwei Gastnetzwerkfunktionen (GNFs) fließt, optimieren, indem Sie einen Fabric-Pfadoptimierungsmodus konfigurieren. Diese Funktion reduziert den Bandbreitenverbrauch der Fabric, indem sie zusätzlichen Fabric-Hop (Umschalten von Datenverkehrsflüssen von einer Paketweiterleitungs-Engine zu einer anderen) verhindert, bevor die Pakete schließlich die Ziel-Paketweiterleitungs-Engine erreichen. Die Fabric-Pfadoptimierung, die auf MX2008, MX2010 und MX2020 mit MPC9E und MX2K-MPC11E unterstützt wird, verhindert nur einen einzigen zusätzlichen Datenverkehrssprung, der sich aus dem abstrahierten Lastausgleich der Fabric-Schnittstelle ergibt.

Sie können einen der folgenden Optimierungsmodi für den Fabric-Pfad konfigurieren:

  • monitor—Wenn Sie diesen Modus konfigurieren, überwacht die Peer-GNF den Datenverkehrsfluss und sendet Informationen über die Paketweiterleitungs-Engine, an die der Datenverkehr derzeit weitergeleitet wird, und die gewünschte Paketweiterleitungs-Engine, die einen optimierten Datenverkehrspfad bereitstellen könnte, an die Quell-GNF. In diesem Modus leitet die Quell-GNF den Datenverkehr nicht an die gewünschte Paketweiterleitungs-Engine weiter.

  • optimize—Wenn Sie diesen Modus konfigurieren, überwacht die Peer-GNF den Datenverkehrsfluss und sendet Informationen über die Paketweiterleitungs-Engine, an die der Datenverkehr derzeit weitergeleitet wird, und die gewünschte Paketweiterleitungs-Engine, die einen optimierten Datenverkehrspfad bereitstellen könnte, an die Quell-GNF. Die Quell-GNF leitet dann den Datenverkehr an die gewünschte Packet Forwarding Engine weiter.

Um einen Fabric-Pfadoptimierungsmodus zu konfigurieren, verwenden Sie die folgenden CLI-Befehle unter BSYS.

Nachdem Sie die Fabric-Pfadoptimierung konfiguriert haben, können Sie den Befehl show interfaces af-interface-name in GNF verwenden, um die Anzahl der Pakete anzuzeigen, die derzeit auf dem optimalen/nicht optimalen Pfad fließen.

SNMP-Trap-Unterstützung: Konfigurieren des NMS-Servers (externes Servermodell)

Der Juniper Device Manager (JDM) unterstützt die folgenden SNMP-Traps:

  • LinkUp- und linkDown-Traps für JDM-Schnittstellen.

    Es werden standardmäßige LinkUp/LinkDown-SNMP-Traps generiert. Es wird ein Standard-Community-String jdm verwendet.

  • LinkUp/LinkDown-Traps für Host-Schnittstellen.

    Es werden standardmäßige linkUp/linkDown SNMP-Traps generiert. Es wird ein Standard-Community-String host verwendet.

  • Fallen bei JDM-zu-JDM-Konnektivitätsverlust/-wiedergewinnung.

    JDM-zu-JDM-Traps für den Verlust/die Wiedererlangung der Konnektivität werden mithilfe generischer Syslog-Traps (jnxSyslogTrap) über die Hostverwaltungsschnittstelle gesendet.

    Der JDM-Konnektivitäts-Downtrap JDM_JDM_LINK_DOWN wird gesendet, wenn das JDM nicht in der Lage ist, mit dem Peer-JDM auf einem anderen Server cb0 oder cb1 einer anderen Verbindung zu kommunizieren. Sehen Sie sich das folgende Beispiel an:

    Der JDM-zu-JDM-Konnektivitäts-Up-Trap JDM_JDM_LINK_UP wird gesendet, wenn entweder die oder-Verbindung cb0 cb1 hergestellt wird, und JDMs auf beiden Servern können wieder kommunizieren. Sehen Sie sich das folgende Beispiel an:

  • VM (GNF) up/down –libvirtGuestNotif Benachrichtigungen.

    Für GNF-Start-/Shutdown-Ereignisse werden die Standardbenachrichtigungen libvirtGuestNotif generiert. Weitere libvirtMIB Informationen zu Benachrichtigungen finden Sie auf dieser Webseite. Sehen Sie sich auch das folgende Beispiel an:

SNMP-Traps werden an den NMS-Zielserver gesendet. Informationen zur Konfiguration der NMS-Zielserverdetails im JDM finden Sie im folgenden Beispiel:

[Bearbeiten]

JDM schreibt keine Konfiguration in die SNMP-Konfigurationsdatei des Hosts (/etc/snmp/snmpd.conf). Daher haben die JDM-Installation und die anschließende Konfiguration keine Auswirkungen auf das Host-SNMP. Der CLI-Befehl SNMP-Konfiguration in JDM wird nur verwendet, um die Datei snmpd.conf des JDM zu konfigurieren, die im Container vorhanden ist. Um den linkUp/Down-Trap zu generieren, müssen Sie die Konfiguration, wie im folgenden Beispiel gezeigt, manuell in die Datei snmpd.conf des Hostservers (/etc/snmp/snmpd.conf) einfügen:

createUser trapUser
iquerySecName trapUser
rouser trapUser
defaultMonitors yes
notificationEvent  linkUpTrap    linkUp   ifIndex ifAdminStatus ifOperStatus ifDescr
notificationEvent  linkDownTrap  linkDown ifIndex ifAdminStatus ifOperStatus ifDescr
monitor -r 10  -e linkUpTrap   "Generate linkUp" ifOperStatus != 2
monitor -r 10  -e linkDownTrap "Generate linkDown" ifOperStatus == 2
trap2sink <NMS-IP> host

Ersetzen Sie im obigen Beispiel <NMS-IP> durch die IP-Adresse der Network Management Station (NMS).

Chassis-Konfigurationshierarchie bei BSYS und GNF

Beim Junos Node Slicing besitzt das BSYS alle physischen Komponenten des Routers, einschließlich der Linecards und der Fabric, während die GNFs den Weiterleitungsstatus auf ihren jeweiligen Linecards beibehalten. Im Einklang mit dieser geteilten Verantwortung sollte die Junos CLI-Konfiguration unter der chassis Hierarchie (falls vorhanden) am BSYS oder am GNF wie folgt angewendet werden:

  • Parameter auf physischer Ebene unter der chassis Konfigurationshierarchie sollten am BSYS angewendet werden. Beispielsweise ist die Konfiguration für die Behandlung physischer Fehler in einem FPC ein Parameter auf physikalischer Ebene und sollte daher auf das BSYS angewendet werden.

  • Logische Parameter oder Parameter auf Feature-Ebene unter der chassis Konfigurationshierarchie sollten auf den GNF angewendet werden, der dem FPC zugeordnet ist. Beispielsweise ist die Konfiguration für max-queues pro Linecard ein Parameter auf logischer Ebene und sollte daher auf den GNF angewendet werden.

  • Ausnahmsweise sollten die folgenden beiden Parameter unter der chassis Konfigurationshierarchie sowohl bei BSYS als auch bei GNF angewendet werden:

Konfigurieren von Sub Line Cards und Zuweisen zu GNFs

Eine Übersicht über untergeordnete Linecards finden Sie unter Übersicht über untergeordnete Linecards.

Anmerkung:
  • Diese Funktion gilt für die MPC11E-Linecard (Modellnummer: MX2K-MPC11E) auf den MX2010- und MX2020-Routern, die in der externen serverbasierten Junos-Node Slicing-Einrichtung verwendet werden.

  • Stellen Sie sicher, dass auf jeder Routing-Engine aller GNFs und im BSYS Junos OS Version 21.2R1 oder höher ausgeführt wird.

Um eine MPC11E weiter in Unterlinecards (SLCs) aufzuteilen, müssen Sie die fpc-slice CLI-Option unter der set chassis network-slices guest-network-functions gnf Hierarchie in BSYS verwenden.

Bevor Sie die Konfiguration bestätigen, müssen Sie alle von der Linecard unterstützten SLCs konfigurieren und den SLCs alle erforderlichen Ressourcen wie Core, DRAM und Paketweiterleitungsmodule zuweisen. Eine MPC11E-Linecard unterstützt zwei SLCs.

GNFs unterstützen die folgenden Kombinationen aus vollständigen Linecards und SLCs:

  • GNF mit MPC11E SLCs

  • GNF mit MPC11E SLCs und MPC9

  • GNF mit MPC11E SLCs und MPC11E

  • GNF mit MPC11E SLCs, MPC9, MPC11E

Führen Sie die folgenden Schritte aus, um SLCs zu konfigurieren und GNFs zuzuweisen:

Anmerkung:
  • Sie müssen alle folgenden CLI-Anweisungen gleichzeitig für alle SLCs konfigurieren (wie in den folgenden Schritten gezeigt). Jede spätere Änderung an dieser Konfiguration führt dazu, dass die gesamte Linecard neu gestartet wird.

  • Wenn Sie falsche Werte konfigurieren (z. B. nicht unterstützte Paketweiterleitungs-Engine-Bereiche, CPU-Kerne oder DRAM-Werte), schlägt der Konfigurationscommit mit einer entsprechenden Meldung fehl, die auf den Fehler hinweist.
  1. Konfigurieren Sie SLCs.
    Anmerkung:

    Nicht zuweisen:

    • zwei oder mehr SLCs derselben Linecard an denselben GNF.

    • den gleichen SLC einer Linecard auf mehr als einen GNF.

  2. Weisen Sie den SLCs Paketweiterleitungs-Engines zu. Sie müssen alle Paketweiterleitungsmodule auf der Linecard den SLCs zuordnen, wie im folgenden Beispiel gezeigt:
    Anmerkung:

    Die Konfiguration unterstützt nur die folgenden Paketweiterleitungs-Engine-Bereiche:

    • 0-3 für einen SLC und 4-7 für den anderen SLC (symmetrisches Profil)

    • 0-1 für einen SLC und 2-7 für den anderen SLC (asymmetrisches Profil)

    • 0-5 für einen SLC und 6-7 für den anderen SLC (asymmetrisches Profil)

  3. Weisen Sie den SLCs CPU-Kerne zu, wie im folgenden Beispiel gezeigt:
    Anmerkung:

    4 ist der einzige Wert für die unterstützten CPU-Kerne. Sie müssen für jedes der beiden SLCs den Wert 4 konfigurieren.

  4. Weisen Sie den SLCs DRAMs zu, wie im folgenden Beispiel gezeigt:

    Sie müssen einen DRAM von insgesamt 26 GB für beide SLCs zusammen zuweisen. Es werden nur die folgenden Kombinationen der DRAM-Zuordnung unterstützt:

    SLC1 DRAM (GB)

    SLC2 DRAM (GB)

    Zwischensumme (GB)

    BLC/Linux-Host-DRAM (GB)

    Gesamt (GB)

    13

    13

    26

    6

    32

    9/17

    17/9

    26

    6

    32

    Anmerkung:

    Sie können dem BLC keine Ressourcen zuordnen. Sie werden automatisch von Junos OS zugewiesen.

  5. Bestätigen Sie die Änderungen.

Beispielkonfiguration für Junos Node Slicing

In diesem Abschnitt finden Sie Beispielkonfigurationen für das Junos Node Slicing.

JDM-Beispielkonfiguration (externes Servermodell)

JDM-Beispielkonfiguration (In-Chassis-Modell)

Beispiel für eine BSYS-Konfiguration mit abstrahierter Fabric-Schnittstelle

Beispiel für eine abstrahierte Fabric-Konfiguration bei GNF mit Class of Service

Angenommen, es gibt eine abstrahierte Fabric(af)-Schnittstelle zwischen GNF1 und GNF2. Die folgende Beispielkonfiguration veranschaulicht, wie in einem Szenario, in dem Datenverkehr von GNF1 zu GNF2 kommt, Umschreibungen auf die af Schnittstelle bei GNF1 und Klassifizierer auf die Schnittstelle auf GNF2 af angewendet werden:

GNF1 Configuration

GNF2 Configuration

Beispielausgabe für den abstrahierten Fabric-Schnittstellenstatus bei einem GNF

Beispielkonfiguration für Sub Line Cards

Dieser Abschnitt enthält Beispielkonfigurationen für Sub Line Cards (SLCs).

Beispielkonfiguration für das symmetrische Sub-Linecard-Profil

Im symmetrischen Profil ist nur eine Kombination von Ressourcen möglich.

Im Folgenden finden Sie eine Beispielkonfiguration zum Aufteilen von FPC 1 (MPC11E) im symmetrischen Sub-Linecard-Profil:

Diese Konfiguration würde wie folgt aussehen:

Beispielkonfiguration für das asymmetrische Sub-Linecard-Profil

Im asymmetrischen Profil sind zwei Konfigurationen möglich, je nachdem, wie die PFEs oder Packet Forwarding Engines [0-7] auf die beiden SLCs aufgeteilt sind. In einer Beispielkonfiguration werden die ersten beiden Packet Forwarding Engines [0-1] einem SLC und die restlichen Packet Forwarding Engines [2-7] dem anderen SLC zugewiesen. In der anderen Beispielkonfiguration werden die letzten beiden Packet Forwarding Engines [6-7] einem SLC und die restlichen Packet Forwarding Engines [0-5] dem anderen SLC zugewiesen.

Die folgende Beispielkonfiguration ist ein Beispiel für die Aufteilung [0-1 2-7].

Im folgenden Beispiel stimmen die CPU-Kern- und DRAM-Zuweisungen für die SLCs mit einer der Spalten unter der Ressourcenkombination "Asymmetrisches Profil" überein, wie in der Tabelle "Von MPC11E unterstützte SLC-Profile " auf der Übersichtsseite "Sub Line Card " dargestellt.

Diese Konfiguration würde wie folgt aussehen: