Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Installation de vMX sur KVM

Lisez cette rubrique pour comprendre comment installer le routeur MX virtuel dans l’environnement KVM.

Préparation de l’hôte Ubuntu à l’installation de vMX

Pour préparer le système d’hôte Ubuntu à l’installation de vMX (à partir de Junos OS version 15.1F6) :

  1. Répondez aux exigences minimales en matière de logiciels et de systèmes d’exploitation décrites dans la configuration matérielle et logicielle minimale requise.

  2. Reportez-vous aux sections Mises à niveau du noyau et mise à niveau vers libvirt 1.2.19 ci-dessous.

  3. Si vous utilisez les cartes familiales Intel XL710 PCI-Express, assurez-vous de mettre à jour les pilotes. Voir Mettre à jour les pilotes pour la carte NIC X710.

  4. Activez la technologie Intel VT-d dans le BIOD. (Nous vous recommandons de vérifier le processus avec le fournisseur car les différents systèmes disposent de méthodes différentes pour activer VT-d.)

    Reportez-vous à la procédure d’activation de VT-d disponible sur le site Web Intel.

  5. Désactivez KSM en définissant KSM_ENABLED=0 /etc/default/qemu-kvm.

  6. Désactivez la virtualisation APIC en modifiant le fichier /etc/modprobe.d/qemu-system-x86.conf et en ajoutant enable_apicv=0 à la ligne contenant options kvm_intel.

    options kvm_intel nested=1 enable_apicv=0

  7. Redémarrez l’hôte pour désactiver la virtualisation KSM et APIC.

  8. Si vous utilisez SR-IOV, vous devez effectuer cette étape.

    Note:

    Vous devez supprimer toute installation précédente avec un pont externe dans /etc/réseau/interfaces et revenir à l’aide de l’interface de gestion d’origine. Assurez-vous que la commande n’affiche ifconfig -a pas les ponts externes avant de poursuivre l’installation.

    Pour déterminer si un pont externe s’affiche, utilisez la ifconfig commande pour afficher l’interface de gestion. Pour confirmer que cette interface est utilisée pour un groupe de ponts externes, utilisez la brctl show commande pour voir si l’interface de gestion est répertoriée comme pont externe.

    Activez la fonctionnalité SR-IOV en étendant l’activation intel_iommu=on dans le répertoire /etc/default/grub .

    GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on"

    Ajoutez la intel_iommu=on chaîne à n’importe quel texte existant pour le GRUB_CMDLINE_LINUX_DEFAULT paramètre.

    Exécutez la update-grub commande suivie de la reboot commande.

  9. Pour des performances optimales, nous vous recommandons de configurer la taille des immenses pages pour qu’elles soient 1G sur l’hôte et de nous assurer que le nœud NUMA du VFP comporte au moins 16 pages 1G Huge Pages. Pour configurer la taille des pages Huge, ajoutez la ligne suivante dans /etc/default/grub :

    GRUB_CMDLINE_LINUX="default_hugepagesz=1G hugepagesz=1G hugepages=number-of-huge-pages"

    Le nombre de pages immenses doit être au moins (16G * number-of-numa-sockets).

  10. Exécutez la modprobe kvm-intel commande avant d’installer vMX.

Note:

À partir de Junos OS 18.2 et des versions ultérieures, ubuntu 16.04.5 LTS et Linux 4.4.0-62-generic sont pris en charge.

Pour répondre aux exigences minimales en matière de logiciels et de systèmes d’exploitation, vous devrez peut-être effectuer ces tâches :

Mise à niveau du noyau

Note:

La mise à niveau du noyau Linux dans la version Ubuntu 16.04 n’est pas nécessaire.

Note:

Si vous utilisez Ubuntu 14.04.1 LTS, qui comprend 3.19.0-80-generic, vous pouvez sauter cette étape. Ubuntu 14.04 comprend une version plus faible du noyau (Linux 3.13.0-24-generic) que la version recommandée (Linux 3.19.0-80-generic).

Pour mettre à niveau le noyau :

  1. Déterminez votre version du noyau.

  2. Si votre version diffère de celle indiquée à l’étape 1, exécutez les commandes suivantes :

  3. Redémarrez le système.

Mise à niveau vers libvirt 1.2.19

Note:

Ubuntu 16.04.5 prend en charge la version Libvirt est 1.3.1. La mise à niveau de libvirt dans Ubuntu 16.04 n’est pas nécessaire.

Ubuntu 14.04 prend en charge libvirt 1.2.2 (qui fonctionne pour le mode VFP lite). Si vous utilisez le mode de performance VFP ou déployez plusieurs instances vMX à l’aide du mode VFP lite, vous devez passer à libvirt 1.2.19.

Pour mettre à niveau libvirt :

  1. Assurez-vous d’installer tous les packages répertoriés dans La configuration matérielle et logicielle minimale requise.

  2. Accédez au répertoire /tmp à l’aide de la cd /tmp commande.

  3. Obtenez le libvirt-1.2.19 code source à l’aide de la commande wget http://libvirt.org/sources/libvirt-1.2.19.tar.gz.

  4. Décompressez et détachez le fichier à l’aide de la tar xzvf libvirt-1.2.19.tar.gz commande.

  5. Accédez au répertoire libvirt-1.2.19 à l’aide de la cd libvirt-1.2.19 commande.

  6. Arrêtez libvirtd avec la service libvirt-bin stop commande.

  7. Exécutez la ./configure --prefix=/usr --localstatedir=/ --with-numactl commande.

  8. Exécutez la make commande.

  9. Exécutez la make install commande.

  10. Assurez-vous que le démon libvirtd est en cours d’exécution. (Utilisez la service libvirt-bin start commande pour la recommencer. Si ce n’est pas le cas, utilisez la /usr/sbin/libvirtd -d commande.)

  11. Vérifiez que les versions de libvirtd et virsh sont 1.2.19.

    Le système affiche le journal de compilation de code.

Note:

Si vous ne pouvez pas déployer vMX après la mise à niveau de libvirt, descendez le pont virbr0 avec la ifconfig virbr0 down commande et supprimez le pont avec la brctl delbr virbr0 commande.

Mise à jour des pilotes pour la carte réseau X710

Si vous utilisez les cartes réseau de la famille Intel XL710 PCI-Express, assurez-vous de mettre à jour les pilotes avant d’installer vMX.

Pour mettre à jour les pilotes :

  1. Téléchargez le package logiciel vMX comme root et décompressez le package.
  2. Installez le pilote i40e à partir du répertoire d’installation.
  3. Installez le dernier pilote i40evf d’Intel.

    Par exemple, les commandes suivantes téléchargent et installent la version 1.4.15 :

  4. Mettez à jour l’initrd avec les pilotes.
  5. Activez le nouveau pilote.

Installer les autres packages requis

Utilisez les commandes suivantes pour installer le package python-netifaces sur Ubuntu.

Préparation de l’hôte Red Hat Enterprise Linux pour l’installation de vMX

Pour préparer le système hôte exécutant Red Hat Enterprise Linux à l’installation de vMX, effectuez la tâche pour votre version :

Préparation de l’hôte Red Hat Enterprise Linux 7.3 pour installer vMX

Pour préparer le système hôte exécutant Red Hat Enterprise Linux 7.3 pour l’installation de vMX :

  1. Répondez aux exigences minimales en matière de logiciels et de systèmes d’exploitation décrites dans la configuration matérielle et logicielle minimale requise.
  2. Activez l’hyperthreading et VT-d dans le BIOD.

    Si vous utilisez SR-IOV, activez SR-IOV dans le BIOD.

    Nous vous recommandons de vérifier le processus auprès du fournisseur, car les différents systèmes disposent de méthodes différentes pour accéder aux paramètres DU BIOLOGIQUE et les modifier.

  3. Lors de l’installation du système d’exploitation, sélectionnez les collections de logiciels de la plate-forme d’hôte de virtualisation et de virtualisation.

    Si vous n’avez pas sélectionné ces collections de logiciels lors de l’installation de l’interface graphique, utilisez les commandes suivantes pour les installer :

  4. Enregistrez votre hôte à l’aide de vos identifiants de compte Red Hat. Activez les référentiels appropriés.

    Pour installer le référentiel Extra Packages for Enterprise Linux 7 (epel) :

  5. Mettez à jour les packages actuellement installés.
  6. Pour des performances optimales, nous vous recommandons de configurer la taille des immenses pages pour qu’elles soient 1G sur l’hôte et de nous assurer que le nœud NUMA du VFP comporte au moins seize pages 1G Huge. Pour configurer la taille des pages immenses, utilisez l’étape suivante :

    Pour Red Hat : ajoutez la configuration Huge Pages.

    Utilisez le | de montage commande de démarrage grep pour déterminer le nom de l’équipement d’amorçage.

    Le nombre de pages immenses doit être au moins (16G * number-of-numa-sockets).

  7. Installez les packages requis.
  8. (Facultatif) Si vous utilisez SR-IOV, vous devez installer ces packages et activer la fonctionnalité SR-IOV.

    Redémarrez et connectez-vous à nouveau.

  9. Reliez le binaire qemu-kvm au fichier qemu-system-x86_64.
  10. Configurez le chemin pour la version Python correcte et installez la bibliothèque PyYAML.
  11. Si vous avez installé des bibliothèques OpenStack Red Hat, vous devez changer script/templates/red_{vPFE, vRE}-ref.xml pour utiliser <type arch='x86_64' machine='pc-0.13'>hvm</type> le type de machine.
  12. Désactivez KSM.

    Pour vérifier que KSM est désactivé, exécutez la commande suivante.

    La valeur 0 dans la sortie indique que KSM est désactivé.

  13. Désactivez la virtualisation APIC en modifiant le fichier /etc/modprobe.d/kvm.conf et en ajoutant enable_apicv=n à la ligne contenant les options kvm_intel.

    Vous pouvez aussi l’utiliser enable_apicv=0 .

    Redémarrez l’hôte pour désactiver la virtualisation KSM et APIC.

  14. Arrêtez et désactivez Network Manager.

    Si vous ne parvenez pas à arrêter Network Manager, vous pouvez empêcher l’écriture de resolv.conf avec la chattr +I /etc/resolv.conf commande.

  15. Assurez-vous que le répertoire de construction est lisible par l’utilisateur QEMU.

    Vous pouvez également configurer QEMU pour qu’il s’exécute en tant qu’utilisateur racine en définissant le fichier /etc/libvirt/qemu.conf sur user="root".

Vous pouvez désormais installer vMX.

Note:

Lorsque vous installez vMX avec la sh vmx.sh -lv --install commande, un avertissement d’incompatibilité de version du noyau peut s’afficher. Vous pouvez ignorer cet avertissement.

Préparation de l’hôte Red Hat Enterprise Linux 7.2 pour installer vMX

Pour préparer le système hôte exécutant Red Hat Enterprise Linux 7.2 pour l’installation de vMX :

  1. Répondez aux exigences minimales en matière de logiciels et de systèmes d’exploitation décrites dans la configuration matérielle et logicielle minimale requise.
  2. Activez l’hyperthreading et VT-d dans le BIOD.

    Si vous utilisez SR-IOV, activez SR-IOV dans le BIOD.

    Nous vous recommandons de vérifier le processus auprès du fournisseur, car les différents systèmes disposent de méthodes différentes pour accéder aux paramètres DU BIOLOGIQUE et les modifier.

  3. Lors de l’installation du système d’exploitation, sélectionnez les collections de logiciels de la plate-forme d’hôte de virtualisation et de virtualisation.

    Si vous n’avez pas sélectionné ces collections de logiciels lors de l’installation de l’interface graphique, utilisez les commandes suivantes pour les installer :

  4. Enregistrez votre hôte à l’aide de vos identifiants de compte Red Hat. Activez les référentiels appropriés.
  5. Mettez à jour les packages actuellement installés.
  6. Installez les packages requis.
  7. Pour des performances optimales, nous vous recommandons de configurer la taille des immenses pages pour qu’elles soient 1G sur l’hôte et de nous assurer que le nœud NUMA du VFP comporte au moins seize pages 1G Huge. Pour configurer la taille des pages immenses, utilisez l’étape suivante :

    Pour Red Hat : ajoutez la configuration Huge Pages.

    Utilisez le | de montage commande de démarrage grep pour déterminer le nom de l’équipement d’amorçage.

    Le nombre de pages immenses doit être au moins (16G * number-of-numa-sockets).

  8. (Facultatif) Si vous utilisez SR-IOV, vous devez installer ces packages et activer la fonctionnalité SR-IOV.

    Redémarrez et connectez-vous à nouveau.

  9. Reliez le binaire qemu-kvm au fichier qemu-system-x86_64.
  10. Configurez le chemin pour la version Python correcte et installez la bibliothèque PyYAML.
  11. Si vous avez installé des bibliothèques OpenStack Red Hat, vous devez changer script/templates/red_{vPFE, vRE}-ref.xml pour utiliser <type arch='x86_64' machine='pc-0.13'>hvm</type> le type de machine.
  12. Désactivez KSM.

    Pour vérifier que KSM est désactivé, exécutez la commande suivante.

    La valeur 0 dans la sortie indique que KSM est désactivé.

  13. Désactivez la virtualisation APIC en modifiant le fichier /etc/modprobe.d/kvm.conf et en ajoutant enable_apicv=n à la ligne contenant les options kvm_intel.

    Vous pouvez aussi l’utiliser enable_apicv=0 .

    Redémarrez l’hôte pour désactiver la virtualisation KSM et APIC.

  14. Arrêtez et désactivez Network Manager.

    Si vous ne parvenez pas à arrêter Network Manager, vous pouvez empêcher l’écriture de resolv.conf avec la chattr +I /etc/resolv.conf commande.

  15. Assurez-vous que le répertoire de construction est lisible par l’utilisateur QEMU.

    Vous pouvez également configurer QEMU pour qu’il s’exécute en tant qu’utilisateur racine en définissant le fichier /etc/libvirt/qemu.conf sur user="root".

Vous pouvez désormais installer vMX.

Note:

Lorsque vous installez vMX avec la sh vmx.sh -lv --install commande, un avertissement d’incompatibilité de version du noyau peut s’afficher. Vous pouvez ignorer cet avertissement.

Préparation de l’hôte CentOS à l’installation de vMX

Pour préparer le système hôte exécutant CentOS à installer vMX :

  1. Répondez aux exigences minimales en matière de logiciels et de systèmes d’exploitation décrites dans la configuration matérielle et logicielle minimale requise.
  2. Activez l’hyperthreading et VT-d dans le BIOD.

    Si vous utilisez SR-IOV, activez SR-IOV dans le BIOD.

    Nous vous recommandons de vérifier le processus auprès du fournisseur, car les différents systèmes disposent de méthodes différentes pour accéder aux paramètres DU BIOLOGIQUE et les modifier.

  3. Lors de l’installation du système d’exploitation, sélectionnez les collections de logiciels de la plate-forme d’hôte de virtualisation et de virtualisation.

    Si vous n’avez pas sélectionné ces collections de logiciels lors de l’installation de l’interface graphique, utilisez les commandes suivantes pour les installer :

  4. Activez les référentiels appropriés.
  5. Mettez à jour les packages actuellement installés.
  6. Installez les packages requis.
  7. (Facultatif) Si vous utilisez SR-IOV, vous devez installer ces packages et activer la fonctionnalité SR-IOV.

    Redémarrez et connectez-vous à nouveau.

  8. Reliez le binaire qemu-kvm au fichier x86_64 qemu-system .
  9. Configurez le chemin pour la version Python correcte et installez la bibliothèque PyYAML.
    Note:

    En cas d’erreur lors de l’installation, utilisez la solution de contournement suivante :

  10. Désactivez KSM.

    Pour vérifier que KSM est désactivé, exécutez la commande suivante.

    La valeur 0 dans la sortie indique que KSM est désactivé.

  11. Désactivez la virtualisation APIC en modifiant le fichier /etc/modprobe.d/kvm.conf et en ajoutant enable_apicv=0 à la ligne contenant des options kvm_intel.

    Redémarrez l’hôte pour désactiver la virtualisation KSM et APIC.

  12. Arrêtez et désactivez Network Manager.

    Si vous ne parvenez pas à arrêter Network Manager, vous pouvez empêcher l’écriture de resolv.conf avec la chattr +I /etc/resolv.conf commande.

  13. Assurez-vous que le répertoire de construction est lisible par l’utilisateur QEMU.

    Vous pouvez également configurer QEMU pour qu’il s’exécute en tant qu’utilisateur racine en définissant le fichier /etc/libvirt/qemu.conf sur user=root.

  14. Ajoutez cette ligne à la fin du fichier /etc/profil .

Vous pouvez désormais installer vMX.

Note:

Lorsque vous installez vMX avec la sh vmx.sh -lv --install commande, un avertissement d’incompatibilité de version du noyau peut s’afficher. Vous pouvez ignorer cet avertissement.

Installation de vMX pour différents cas d’utilisation

L’installation de vMX est différente pour des cas d’utilisation spécifiques. Le tableau répertorie les exigences de configuration requises pour certains cas d’utilisation vMX.

Tableau 1 : Exemples de configurations pour les cas d’utilisation (pris en charge dans Junos OS versions 18.3 à 18.4)

Cas d’utilisation

Nombre minimum de processeurs virtuels

Mémoire minimale

Type d’équipement NIC

Simulation en laboratoire

Performances jusqu’à 100 Mbits/s

4 : 1 pour VCP3 pour VFP

5 Go : 1 Go pour VCP4 Go pour VFP

virtio

Applications à faible bande passante

Jusqu’à 3 Gbit/s de débit

10:1 pour VCP9 pour VFP

20 Go : 4 Go pour VCP16 Go pour VFP

virtio

Applications à bande passante élevée ou tests des performances

Pour un débit de 3 Gbits/s et au-delà des performances

10:1 pour VCP9 pour VFP

20 Go 4 Go pour VCP16 Go pour VFP

V2V SR

Deux moteurs de routage virtuels

Note:

Lors du déploiement sur des hôtes distincts, vous devez configurer une connexion entre les hôtes pour que les VCP communiquent entre eux.

Double le nombre de ressources VCP utilisées pour votre cas d’utilisation particulier lors du déploiement des deux instances VCP.

Double le nombre de ressources VCP utilisées pour votre cas d’utilisation particulier lors du déploiement des deux instances VCP.

virtio ou SR-IOV

Tableau 2 : Exemples de configurations pour les cas d’utilisation (pris en charge dans Junos OS versions 18.1 à 18.2)

Cas d’utilisation

Nombre minimum de processeurs virtuels

Mémoire minimale

Type d’équipement NIC

Simulation en laboratoire

Performances jusqu’à 100 Mbits/s

4 : 1 pour VCP3 pour VFP

5 Go : 1 Go pour VCP4 Go pour VFP

virtio

Applications à faible bande passante

Jusqu’à 3 Gbit/s de débit

8:1 pour VCP7 pour VFP

16 Go : 4 Go pour VCP12 Go pour VFP

virtio

Applications à bande passante élevée ou tests des performances

Pour un débit de 3 Gbits/s et au-delà des performances

8:1 pour VCP7 pour VFP

16 Go 4 Go pour VCP12 Go pour VFP

V2V SR

Deux moteurs de routage virtuels

Note:

Lors du déploiement sur des hôtes distincts, vous devez configurer une connexion entre les hôtes pour que les VCP communiquent entre eux.

Double le nombre de ressources VCP utilisées pour votre cas d’utilisation particulier lors du déploiement des deux instances VCP.

Double le nombre de ressources VCP utilisées pour votre cas d’utilisation particulier lors du déploiement des deux instances VCP.

virtio ou SR-IOV

Tableau 3 : Exemples de configurations pour les cas d’utilisation (pris en charge dans Junos OS version 17.4 )

Cas d’utilisation

Nombre minimum de processeurs virtuels

Mémoire minimale

Type d’équipement NIC

Simulation en laboratoire

Performances jusqu’à 100 Mbits/s

4 : 1 pour VCP3 pour VFP

5 Go : 1 Go pour VCP4 Go pour VFP

virtio

Applications à faible bande passante

Jusqu’à 3 Gbit/s de débit

8:1 pour VCP7 pour VFP

16 Go : 4 Go pour VCP12 Go pour VFP

virtio

Applications à bande passante élevée ou tests des performances

Pour un débit de 3 Gbits/s et au-delà des performances

8:1 pour VCP7 pour VFP

16 Go 4 Go pour VCP12 Go pour VFP

V2V SR

Tableau 4 : Exemples de configurations pour les cas d’utilisation (pris en charge dans Junos OS version 15.1F6 à 17.3 )

Cas d’utilisation

Nombre minimum de processeurs virtuels

Mémoire minimale

Type d’équipement NIC

Simulation en laboratoire

Performances jusqu’à 100 Mbits/s

4 : 1 pour VCP3 pour VFP

5 Go : 1 Go pour VCP4 Go pour VFP

virtio

Applications à faible bande passante

Jusqu’à 3 Gbit/s de débit

8:1 pour VCP7 pour VFP

16 Go : 4 Go pour VCP12 Go pour VFP

virtio

Applications à bande passante élevée ou tests des performances

Pour un débit de 3 Gbits/s et au-delà des performances

8:1 pour VCP7 pour VFP

16 Go 4 Go pour VCP12 Go pour VFP

V2V SR

Tableau 5 : Exemples de configurations pour les cas d’utilisation (pris en charge dans Junos OS version 15.1F4 à 15.1F3)

Cas d’utilisation

Nombre minimum de processeurs virtuels

Mémoire minimale

Type d’équipement NIC

Simulation en laboratoire

Performances jusqu’à 100 Mbits/s

4 : 1 pour VCP3 pour VFP

10 Go : 2 Go pour VCP8 Go pour VFP

virtio

Applications à faible bande passante

Jusqu’à 3 Gbit/s de débit

4:1 pour VCP3 pour VFP

10 Go : 2 Go pour VCP8 Go pour VFP

virtio ou SR-IOV

Applications à bande passante élevée ou tests des performances

Pour un débit de 3 Gbits/s et au-delà des performances (avec au minimum deux ports Ethernet 10 Gb)

Jusqu’à 80 Gbit/s de performances brutes

8:1 pour VCP7 pour VFP

16 Go 4 Go pour VCP12 Go pour VFP

V2V SR

Tableau 6 : Exemples de configurations pour les cas d’utilisation (pris en charge dans Junos OS version 14.1)

Cas d’utilisation

Nombre minimum de processeurs virtuels

Mémoire minimale

Type d’équipement NIC

Simulation en laboratoire

Performances jusqu’à 100 Mbits/s

4 : 1 pour VCP3 pour VFP

8 Go : 2 Go pour VCP6 Go pour VFP

virtio

Applications à faible bande passante

Jusqu’à 3 Gbit/s de débit

4:1 pour VCP3 pour VFP

8 Go : 2 Go pour VCP6 Go pour VFP

virtio ou SR-IOV

Applications à bande passante élevée ou tests des performances

Pour un débit de 3 Gbits/s et au-delà des performances (avec au minimum deux ports Ethernet 10 Gb)

Jusqu’à 80 Gbit/s de performances brutes

5:1 pour VCP4 pour VFP

8 Go 2 Go pour VCP6 Go pour VFP

V2V SR

Note:

À partir de Junos OS version 18.4R1 (hôte Ubuntu) et de Junos OS version 19.1R1 (hôte RedHat), vous pouvez définir la use_native_drivers valeur true dans le fichier de configuration vMX pour utiliser les derniers pilotes non modifié pour vos cartes d’interface réseau pour les installations vMX

Pour installer vMX dans un cas d’utilisation particulier, effectuez l’une des tâches suivantes :

Installation de vMX pour la simulation en laboratoire

À partir de Junos OS version 14.1, le cas d’utilisation de la simulation en laboratoire utilise le virtio NIC.

Cas d’utilisation de vMX pour la simulation en laboratoire (moins de 100 Mbits/s) :

  1. Téléchargez le package logiciel vMX comme root et décompressez le package.

    tar xzvf package-name

  2. Remplacez le répertoire par l’emplacement du package vMX non compressé.

    cd package-location

  3. Modifiez le fichier texte config/vmx.conf avec un éditeur de texte pour configurer une seule instance vMX.

    Assurez-vous que les paramètres suivants sont correctement définis dans le fichier de configuration vMX :

    device-type : virtio

    Voir Spécification des paramètres du fichier de configuration vMX.

  4. Exécutez le ./vmx.sh -lv --install script pour déployer l’instance vMX spécifiée par le fichier de configuration de démarrage config/vmx.conf et fournissez une journalisation verbose à un fichier. Voir Deploying and Managing vMX.
  5. À partir du VCP, activez le mode lite pour le VFP.

Voici un fichier de configuration de démarrage vMX utilisant le type d’équipement virtio pour la simulation en laboratoire :

Installation de vMX pour les applications à faible bande passante

À partir de La version 14.1 de Junos OS, le cas d’utilisation des applications à faible bande passante repose sur des cartes NIC VIRTIO ou SR-IOV.

Pour installer le vMX pour le cas d’utilisation d’application à faible bande passante (jusqu’à 3 Gbits/s) :

  1. Téléchargez le package logiciel vMX comme root et décompressez le package.

    tar xzvf package-name

  2. Remplacez le répertoire par l’emplacement du package vMX non compressé.

    cd package-location

  3. Modifiez le fichier texte config/vmx.conf avec un éditeur de texte pour configurer une seule instance vMX.

    Assurez-vous que les paramètres suivants sont correctement définis dans le fichier de configuration vMX :

    device-type: virtio Ou device-type: sriov

    Voir Spécification des paramètres du fichier de configuration vMX.

  4. Exécutez le ./vmx.sh -lv --install script pour déployer l’instance vMX spécifiée par le fichier de configuration de démarrage config/vmx.conf et fournissez une journalisation verbose à un fichier. Voir Deploying and Managing vMX.
  5. À partir du VCP, activez le mode performance pour le VFP.

Voici un fichier de configuration de démarrage vMX utilisant le type d’équipement virtio pour les applications à faible bande passante :

Installation de vMX pour les applications à bande passante élevée

À partir de Junos OS version 14.1, le cas d’utilisation des applications à bande passante élevée repose sur les cartes RÉSEAU SR-IOV.

Pour installer vMX pour le cas d’utilisation de l’application à large bande passante (supérieure à 3 Gbits/s) :

  1. Téléchargez le package logiciel vMX comme root et décompressez le package.

    tar xzvf package-name

  2. Remplacez le répertoire par l’emplacement du package vMX non compressé.

    cd package-location

  3. Modifiez le fichier texte config/vmx.conf avec un éditeur de texte pour configurer une seule instance vMX.

    Assurez-vous que les paramètres suivants sont correctement définis dans le fichier de configuration vMX :

    device-type: sriov

    Voir Spécification des paramètres du fichier de configuration vMX.

  4. Exécutez le ./vmx.sh -lv --install script pour déployer l’instance vMX spécifiée par le fichier de configuration de démarrage config/vmx.conf et fournissez une journalisation verbose à un fichier. Voir Deploying and Managing vMX.
  5. À partir du VCP, activez le mode performance pour le VFP.

Voici un fichier de configuration de démarrage vMX utilisant le type d’équipement SR-IOV :

Pour plus d’informations, consultez l’exemple : Activation des instances SR-IOV sur les instances vMX sur KVM.

Installation de vMX avec deux moteurs de routage

Vous pouvez configurer des moteurs de routage redondants sur le serveur vMX en créant le moteur de routage principal (re0) et le moteur de routage de secours (re1) dans la section CONTROL_PLANE du fichier de configuration de démarrage vMX (le fichier par défaut est config/vmx.conf).

Note:

Lors du déploiement des moteurs de routage sur des hôtes distincts, vous devez configurer une connexion entre les hôtes pour que les VCP communiquent entre eux.

À partir de junos OS version 18.1 pour installer vMX pour les deux moteurs de routage cas d’utilisation :

  1. Téléchargez le package logiciel vMX comme root et décompressez le package.

    tar xzvf package-name

  2. Remplacez le répertoire par l’emplacement du package vMX non compressé.

    cd package-location

  3. Modifiez le fichier texte config/vmx.conf avec un éditeur de texte pour configurer l’instance vMX.

    La section par défaut CONTROL_PLANE ressemble à la suivante avec une entrée d’interface :

    Pour configurer les moteurs de routage redondants :

    1. Accédez à CONTROL_PLANE et spécifiez le nombre approprié de vCPU (vcpus) et la quantité de mémoire (memory-mb).
    2. À partir de Junos OS Version 18.1R1, ajoutez le deploy paramètre pour désigner l’instance du moteur de routage déployée sur cet hôte. Si vous ne spécifiez pas ce paramètre, toutes les instances (0,1) sont déployées sur l’hôte.

      Lors du déploiement des moteurs de routage sur des hôtes distincts, vous devez configurer une connexion entre les hôtes pour que les VCP communiquent entre eux.

    3. Modifier l’entrée des interfaces pour ajouter instance : 0 après le type paramètre à configurer re0.

      Indiquez les paramètres et macaddr les ipaddr spécifications. Cette adresse est l’adresse IP de gestion de la VM VCP (fxp0).

    4. Ajoutez une autre entrée, mais spécifiez instance : 1 pour configurer re1 et spécifier le console_port paramètre après re1 le instance : 1 paramètre.

      Indiquez les paramètres et macaddr les ipaddr spécifications. Cette adresse est l’adresse IP de gestion de la VM VCP (fxp0).

    La section révisée CONTROL_PLANE qui déploie le re0 sur l’hôte ressemble à l’exemple suivant avec deux entrées d’interface :

    Voir Spécification des paramètres du fichier de configuration vMX.

  4. Exécutez le ./vmx.sh -lv --install script pour déployer l’instance vMX spécifiée par le fichier de configuration de démarrage config/vmx.conf et fournissez une journalisation verbose à un fichier. Voir Deploying and Managing vMX.
  5. À partir du VCP, activez le mode performance pour le VFP.
  6. Lors du déploiement des moteurs de routage sur des hôtes distincts, vous devez configurer une connexion entre les hôtes pour que les VCP communiquent entre eux.

    Par exemple, pour configurer une connexion (comme br-int-vmx1) entre les deux hôtes sur une interface (par exemple, eth1), exécutez la commande suivante sur les deux hôtes :

Voici un fichier de configuration de démarrage vMX qui déploie la première instance du moteur de routage sur cet hôte :

Installation de vMX avec des interfaces WAN mixtes

À partir de Junos OS version 17.2, le cas d’utilisation des interfaces WAN mixtes utilise les interfaces virtio et SR-IOV. Les exemples de configuration requis sont les mêmes que pour le type d’équipement SR-IOV.

Pour installer le vMX avec des interfaces mixtes :

  1. Téléchargez le package logiciel vMX comme root et décompressez le package.

    tar xzvf package-name

  2. Remplacez le répertoire par l’emplacement du package vMX non compressé.

    cd package-location

  3. Modifiez le fichier texte config/vmx.conf avec un éditeur de texte pour configurer une seule instance vMX.

    Assurez-vous que les paramètres suivants sont correctement définis dans le fichier de configuration vMX :

    device-type: mixed

    Lors de la configuration des interfaces, assurez-vous que les interfaces virtio sont spécifiées avant les interfaces SR-IOV. Le type paramètre spécifie le type d’interface.

    Voir Spécification des paramètres du fichier de configuration vMX.

  4. Exécutez le ./vmx.sh -lv --install script pour déployer l’instance vMX spécifiée par le fichier de configuration de démarrage config/vmx.conf et fournissez une journalisation verbose à un fichier. Voir Deploying and Managing vMX.
  5. À partir du VCP, activez le mode performance pour le VFP.

Voici un fichier de configuration de démarrage vMX utilisant des interfaces mixtes :