Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

编辑群集节点

使用本主题中提供的信息编辑操作 Paragon Automation 群集节点。您可以使用 命令 repair 添加、删除或更换群集节点,以及修复故障节点。修复过程将重建集群节点并重新启动节点中的 Pod。

编辑所有群集中的多主节点和工工节点中的主节点

在具有多个主节点的群集中,您可以同时编辑主节点和工工节点。您可以添加或移除主节点和工工节点。但是,添加或移除主节点时,必须确保主节点总数为奇数。您还必须至少有三个主节点,以便在控制平面上实现高可用性。使用以下过程编辑多主节点群集中的节点。

您也可使用相同的过程编辑单主节点群集中的工工节点。

  1. 准备新节点或更换节点并确保满足所有群集节点先决条件。请参阅 准备 CentOS 群集节点准备 Ubuntu 群集节点 ,具体取决于基本操作系统。
  2. 登录要添加或维修的节点。
  3. 禁用 udevd 守护程序。
    1. 检查 udevd 是否在运行。

      # systemctl is-active systemd-udevd

    2. 如果 udevd 处于活动状态,请将其禁用。 # systemctl mask system-udevd --now
  4. 登录控制主机。
  5. 如果要添加节点,请编辑库存文件以添加新节点的 IP 地址。

    如果要卸下节点,请编辑库存文件以删除要删除的节点的 IP 地址。

    如果要更换节点,并且更换节点的 IP 地址与当前节点不同,请更新库存文件以将旧节点地址替换为新节点地址。

    如果您正在修复节点,并且 IP 地址不变,则无需编辑库存文件。

  6. 运行以下命令之一:

    如果节点地址没有变化或正在添加或卸下节点,请使用

    ./run –c config-dir repair node-ip-address-or-hostname

    如果节点地址已更改,请使用

    ./run -c config-dir repair old-node-ip-address-or-hostname,new-node-ip-address-or-hostname

  7. 修复或更换节点时,Ceph 分布式文件系统不会自动更新。如果数据磁盘在维修过程中被销毁,则必须恢复这些数据磁盘上托管的对象存储守护程序 (OSD)。

    1. 连接到 Ceph 工具箱并查看 OSD 的状态。脚 ceph-tools 本安装在主节点上。您可以登录主节点并使用 kubectl 接口访问 ceph-tools。要使用主节点以外的节点,必须复制 admin.conf 文件(在控制主机上的 config-dir 中),并设置 kubeconfig 环境变量或使用 export KUBECONFIG=config-dir/admin.conf 命令。

      $ ceph-tools# ceph osd status

    2. 验证所有 OSD 是否都列为 exists,up。如果 OSD 已损坏,请遵循“ 故障排除”Ceph 和 Rook 中说明的故障排除说明。

  8. 在验证是否已创建所有 OSD 之后,登录到您添加或修复的节点。
  9. udevd 在该节点上重新启用。

    systemctl unmask system-udevd

编辑单主节点群集中的主节点

在单主节点群集中,您可以同时编辑主节点和工工节点。但是,您无法移除或添加其他主节点。

注意:

只有当现有群集已是多主群集时,您才能添加其他主节点。

在节点修复期间,您无法计划新的 Pod,并且现有 Pod 保持非工作状态,从而导致服务降级。

您需要最新版本的 etcd-snapshot.db 文件来恢复单主节点群集中的主节点。

注意:

etcd-snapshot.db 文件在 /export/backup/etcd-snapshot.db 中本地备份,每五分钟一次。我们建议您定期将此文件复制到单独的远程位置,或者将此文件安装/导出/备份/复制到外部文件处理器。

要更换或维修主节点,您已准备好 等快照.db 文件。

  1. 登录要更换或维修的节点。
  2. 禁用 udevd 守护程序。
    1. 检查 udevd 是否在运行。

      # systemctl is-active systemd-udevd

    2. 如果 udevd 处于活动状态,请将其禁用。 # systemctl mask system-udevd --now
  3. 登录控制主机。
  4. etcd-snapshot.db 文件复制到控制主机或恢复外部 /导出/备份/ 安装。
  5. 运行以下命令之一以更换或维修节点:

    如果节点地址没有变化,请使用

    ./run –c config-dir repair node-ip-address-or-hostname –e etcd_backup=path-to-etcd-snapshot.db

    如果节点地址已更改,请使用

    ./run –c config-dir repair old-node-ip-address-or-hostname,new-node-ip-address-or-hostname –e etcd_backup=path-to-etcd-snapshot.db

  6. 修复或更换节点时,Ceph 分布式文件系统不会自动更新。如果数据磁盘在维修过程中被销毁,则必须恢复这些数据磁盘上托管的对象存储守护程序 (OSD)。

    1. 连接到 Ceph 工具箱并查看 OSD 的状态。脚 ceph-tools 本安装在主节点上。您可以登录主节点并使用 kubectl 接口访问 ceph-tools。要使用主节点以外的节点,必须复制 admin.conf 文件(位于 config-dir 控制主机上),并设置 kubeconfig 环境变量或使用 export KUBECONFIG=config-dir/admin.conf 命令。

      $ ceph-tools# ceph osd status

    2. 验证所有 OSD 是否都列为 exists,up。如果 OSD 已损坏,请遵循“ 故障排除”Ceph 和 Rook 中说明的故障排除说明。

  7. 验证是否已创建所有 OSD 后,登录您添加或修复的节点。
  8. udevd 在该节点上重新启用。

    systemctl unmask system-udevd