Installation de machines virtuelles vMX imbriqués
Une machine virtuelle imbriqué est une machine virtuelle contenue dans une autre VM. Lisez ce sujet pour comprendre comment lancer la VM vMX imbriqué sur KVM.
Présentation du modèle de VM imbriqué
Le modèle de machine virtuelle vMX imbriqué comporte le plan de contrôle virtuel (VCP) qui s’exécute en tant que VM au sein de la VM du plan de transfert virtuel (VFP). La VM VFP exécute le logiciel de plan de transfert Trio virtuel et la VM VCP exécute Junos OS. Les machines virtuelles VCP et VFP nécessitent une connectivité de couche 2 pour communiquer entre elles. Un pont interne local au serveur pour chaque instance vMX permet cette communication. Les machines virtuelles VCP et VFP nécessitent également une connectivité de couche 2 pour communiquer avec le port de gestion Ethernet du serveur. Pour configurer un pont externe pour une instance vMX, vous devez spécifier des interfaces Ethernet virtuelles avec des adresses IP et DES ADRESSES MAC uniques pour le VFP et le VCP. Le trafic de gestion Ethernet pour toutes les instances vMX pénètre le serveur via le port de gestion Ethernet.
La VM vMX imbriqué prend en charge les interfaces virtio et SR-IOV pour les ports de transfert. La première interface est utilisée pour la gestion et doit être une interface virtio connectée au pont br-ext (pont externe). Les interfaces suivantes sont des interfaces WAN et peuvent être des interfaces virtio ou SR-IOV. Vous devez créer les ponts pour toutes les interfaces virtio. Vous devez disposer d’au moins une interface WAN pour le transfert.
- VM imbriqué avec interfaces Virtio
- VM imbriqué avec interfaces SR-IOV
- Configuration système requise pour le modèle de VM imbriqué
- Limites du vMX avec le modèle de VM imbriqué
VM imbriqué avec interfaces Virtio
En mode virtio, les interfaces serveur ne doivent pas être configurées avec les VF. Vous pouvez supprimer ou réinitialiser les interfaces (eth1
) à l’aide de la rmmod ixgbe
commande et vous pouvez ajouter le pilote IXGBE avec l’interface par défaut à l’interface du serveur à l’aide de la modprobe ixgbe
commande.
La figure 1 illustre le modèle de VM vMX imbriqué avec des interfaces virtio.

VM imbriqué avec interfaces SR-IOV
En mode SR-IOV, les interfaces vMX sont associées aux interfaces serveur. Par exemple, l’interface ge-0/0/0
est associée à eth1
. eth1
est définie dans le fichier .conf file- interface: ge-0/0/0 ,nic: eth1
.
Le VF est ajouté au pilote IXGBE de l’interface eth1
serveur associé au VF et peut être vérifié à l’aide de la ip link show eth1
commande en cours d’exécution en mode SR-IOV.
La figure 2 illustre le modèle de VM vMX imbriqué avec les interfaces SR-IOV.

Pour les interfaces SR-IOV, vous devez charger le pilote IXGBE modifié avant de lancer la VM vMX imbriqué.
La façon dont le trafic réseau passe du NIC physique au NIC virtuel dépend de la technique de virtualisation que vous configurez.
Configuration système requise pour le modèle de VM imbriqué
Le vMX peut être configuré pour être exécuté en deux modes selon le cas d’utilisation :
Mode Lite : nécessite moins de ressources en termes de processeur et de mémoire pour fonctionner à une bande passante plus faible.
Mode performance : nécessite des ressources plus élevées en termes de processeur et de mémoire pour fonctionner avec une bande passante plus élevée.
Note:Le mode performance est le mode par défaut.
Limites du vMX avec le modèle de VM imbriqué
vMX ne prend pas en charge les fonctionnalités suivantes avec le modèle de VM imbriqué :
Attachement ou détachement d’interfaces lors de l’exécution d’une instance vMX
Mise à niveau de la version de Junos OS
Configuration matérielle et logicielle requise pour les machines virtuelles vMX imbriquées
Le tableau 1 répertorie les exigences matérielles.
Description |
Valeur |
---|---|
Exemple de configuration système |
Pour virtio : n’importe quel processeur x86 (Intel ou AMD) avec fonctionnalité VT-d. Pour SR-IOV : processeurs Intel PCI-Express 82599 (10 Gbits/s) et Ivy Bridge. |
Nombre de cœurs
Note:
Le mode performance est le mode par défaut et la valeur minimale est basée sur un port. |
|
Mémoire |
|
Le tableau 2 répertorie les exigences logicielles.
Description |
Valeur |
---|---|
Système d'exploitation |
Ubuntu 14.04.1 LTS Linux 3.19.0-80-generic |
Virtualisation |
QEMU-KVM 2.0.0+dfsg-2ubuntu1.11 |
Packages requis
Note:
D’autres packages supplémentaires peuvent être requis pour répondre à toutes les dépendances. |
bridge-utils qemu-kvm libvirt-bin virtinst
Note:
libvirt 1.2.19 |
Installation et lancement de la VM vMX imbriqué sur KVM
Pour lancer la VM vMX imbriqué sur KVM, effectuez ces tâches.
- Préparation de l’hôte Ubuntu à l’installation de la VM vMX imbriqué
- Chargement du pilote IXGBE modifié
- Lancement d’une instance vMX imbriqué
- Connexion au port de console VFP
- Connexion au VCP
Préparation de l’hôte Ubuntu à l’installation de la VM vMX imbriqué
Pour préparer le système hôte Ubuntu à l’installation de vMX :
Chargement du pilote IXGBE modifié
Si vous utilisez des interfaces SR-IOV, vous devez charger le pilote IXGBE modifié avant de lancer la VM vMX imbriquée. Pour charger le pilote IXGBE modifié :
Lancement d’une instance vMX imbriqué
Pour lancer l’instance vMX imbriquée :
Par exemple, cette commande lance une instance vMX en mode performance avec deux interfaces virtio connectées aux ponts vnet0 et vnet1 :
sudo virt-install --hvm --vcpus=12 -r 16384 \ --serial tcp,host=:4001,mode=bind,protocol=telnet \ --nographics --import --noautoconsole \ --cpu \ SandyBridge,+erms,+smep,+fsgsbase,+pdpe1gb,+rdrand,+f16c,+osxsave,+dca,+pcid,+pdcm,+x tpr,+tm2,+est,+smx,+vmx,+ds_cpl,+monitor,+dtes64,+pbe,+tm,+ht,+ss,+acpi,+ds,+vme \ -w bridge=br-ext,model=virtio \ -w bridge=vnet0,model=virtio \ -w bridge=vnet1,model=virtio \ -n vmx1 --disk vmx-nested-17.2R1.13-4.qcow2,format=qcow2
Par exemple, cette commande lance une instance vMX en mode performance avec deux interfaces SR-IOV :
sudo virt-install --hvm --vcpus=12 -r 16384 \ --serial tcp,host=:4001,mode=bind,protocol=telnet \ --nographics --import --noautoconsole \ --cpu \ SandyBridge,+erms,+smep,+fsgsbase,+pdpe1gb,+rdrand,+f16c,+osxsave,+dca,+pcid,+pdcm,+x tpr,+tm2,+est,+smx,+vmx,+ds_cpl,+monitor,+dtes64,+pbe,+tm,+ht,+ss,+acpi,+ds,+vme \ -w bridge=br-ext,model=virtio \ --host-device=pci_0000_81_10_0 \ --host-device=pci_0000_81_10_1 \ -n vmx2 --disk vmx-nested-17.2R1.13-4.qcow2,format=qcow2
Connexion au port de console VFP
Après avoir lancé l’instance vMX avec la virt-install
commande, vous pouvez vous connecter au port de console du VFP à partir de l’hôte avec la telnet localhost serial-port
commande, où serial-port
est le port que vous avez spécifié comme avec host
le -serial
paramètre.
Par exemple :
$ telnet localhost 4001
Connectez-vous à l’aide du nom d’utilisateur jnpr
et du mot de passe jnpr123
par défaut . Devenez root à l’aide de la sudo -i
commande.
L’interface br-ext tente de récupérer une adresse IP à l’aide de DHCP. Utilisez la ifconfig br-ext
commande pour afficher l’adresse IP attribuée. Si le protocole DHCP n’est pas disponible ou si vous préférez une adresse IP statique, attribuez une adresse IP à br-ext
. Vous pouvez désormais vous connecter au VFP à l’aide du protocole SSH et de cette adresse IP attribuée.
Connexion au VCP
Lorsque la VM VCP est lancée, vous pouvez vous connecter au port de console VCP au port TCP 8601 à partir de la VM VFP en utilisant cette commande :
$ telnet localhost 8601
Depuis le port de console, vous pouvez vous connecter avec un nom d’utilisateur root
et aucun mot de passe.
Au minimum, vous devez effectuer ces tâches de configuration initiales de Junos OS après vous être connecté au VCP :