Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Annexe B : Retrait d’un nœud de stockage Ceph

Utilisez cette procédure pour supprimer un nœud de stockage Ceph d’un cluster Ceph. La suppression de l’espace de stockage Ceph est gérée comme un processus Red Hat plutôt que comme un processus Contrail Cloud de bout en bout. Toutefois, cette procédure démontre la suppression d’un nœud de stockage d’un environnement dans le contexte de Contrail Cloud.

Avant de commencer, assurez-vous que les nœuds restants dans le cluster sont suffisants pour conserver la quantité requise de pgs et de réplicas pour votre cluster de stockage Ceph. Assurez-vous que le cluster Ceph et la pile overcloud sont sains. Pour vérifier l’intégrité de votre overcloud, consultez Vérifier l’intégrité du quorum et du nœud.

Tous les exemples de cette procédure proviennent d’un environnement de laboratoire pour démontrer la suppression de stockage dans le contexte de Contrail Cloud. Les exemples de sortie dans les exemples fournis seront différents des informations de votre déploiement cloud spécifique. Dans les exemples utilisés pour cette procédure, « storage3 » sera le nœud ciblé pour la suppression.

Supprimez le nœud de stockage :

  1. Recherchez la connexion entre le serveur bare metal et le serveur overcloud. La sortie de la commande ci-dessous nous montre que le sérer que nous recherchons est « overcloud8st-cephstorageblue1-0 ». Ces informations seront utilisées ultérieurement au cours de la procédure.
  2. De l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph est sain :
  3. Recherchez les OSD qui résident sur le serveur à supprimer (overcloud8st-cephstorageblue1-0). Nous identifions osd.2, osd.3, osd.6 et osd.7 à partir de l’exemple ci-dessous :
  4. Alors que vous êtes toujours connecté au contrôleur openstack, marquez osd.2, osd.3, osd.6 et osd.7 comme non opérationnels :

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

  5. De l’undercloud en tant qu’utilisateur heat-admin , SSH au nœud Ceph overcloud8st-cephstorageblue1-0, et arrêtez les services OSD :

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

  6. À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH retourne dans le contrôleur et supprime d’autres informations sur les OSD d’overcloud8st-cephstorageblue1-0 :

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

  7. Dans la machine virtuelle undercloud, recherchez l’ID du nœud de stockage Ceph :
  8. Lancez une suppression à l’aide de l’ID de nœud de l’étape précédente :

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

  9. Vérifiez que le nœud bare metal est dans un état de power off et available:
  10. De l’hôte de saut lorsque l’utilisateur marque le nœud de stockage avec 'status : dedeleteing' contrail afin que le profil Ceph en soit supprimé. Ajoutez le 'status : deleting' au fichier storage-nodes.yml pour storage3, puis exécutez le script storage-nodes-assign.sh.

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

  11. À partir de l’hôte de saut en tant qu’utilisateur, exécutez openstack-deploy.sh pour régénérer les modèles afin qu’ils contrail reflètent l’état actuel :

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

Si l’objectif est de supprimer complètement le nœud métallique nu, procédez comme suit :

  1. Modifiez le fichier config/storage-nodes.yml et supprimez le nœud bare metal.

  2. Modifiez le fichier inventory.yml et incluez le 'status : deleting' au nœud à supprimer :

  3. Exécutez le inventory-assign.sh script :

    À partir de l’undercloud en tant qu’utilisateur heat-admin , SSH à l’un des contrôleurs openstack, puis exécutez sudo ceph -s pour vérifier que le cluster Ceph renvoie un état « health_ok » avant de continuer.

  4. Vérifiez que le nœud métallique nu a été retiré. Entrez la commande suivante pour afficher la liste des nœuds :