编辑群集节点
使用本主题中提供的信息编辑操作 Paragon Automation 群集节点。您可以使用 命令 repair
添加、删除或更换群集节点,以及修复故障节点。修复过程将重建集群节点并重新启动节点中的 Pod。
编辑所有群集中的多主节点和工工节点中的主节点
在具有多个主节点的群集中,您可以同时编辑主节点和工工节点。您可以添加或移除主节点和工工节点。但是,添加或移除主节点时,必须确保主节点总数为奇数。您还必须至少有三个主节点,以便在控制平面上实现高可用性。使用以下过程编辑多主节点群集中的节点。
您也可使用相同的过程编辑单主节点群集中的工工节点。
- 准备新节点或更换节点并确保满足所有群集节点先决条件。请参阅 准备 CentOS 群集节点 或 准备 Ubuntu 群集节点 ,具体取决于基本操作系统。
- 登录要添加或维修的节点。
- 禁用
udevd
守护程序。- 检查 udevd 是否在运行。
# systemctl is-active systemd-udevd
- 如果
udevd
处于活动状态,请将其禁用。# systemctl mask system-udevd --now
- 检查 udevd 是否在运行。
- 登录控制主机。
-
如果要添加节点,请编辑库存文件以添加新节点的 IP 地址。
如果要卸下节点,请编辑库存文件以删除要删除的节点的 IP 地址。
如果要更换节点,并且更换节点的 IP 地址与当前节点不同,请更新库存文件以将旧节点地址替换为新节点地址。
如果您正在修复节点,并且 IP 地址不变,则无需编辑库存文件。
- 运行以下命令之一:
如果节点地址没有变化或正在添加或卸下节点,请使用
./run –c config-dir repair node-ip-address-or-hostname
如果节点地址已更改,请使用
./run -c config-dir repair old-node-ip-address-or-hostname,new-node-ip-address-or-hostname
-
修复或更换节点时,Ceph 分布式文件系统不会自动更新。如果数据磁盘在维修过程中被销毁,则必须恢复这些数据磁盘上托管的对象存储守护程序 (OSD)。
-
连接到 Ceph 工具箱并查看 OSD 的状态。脚
ceph-tools
本安装在主节点上。您可以登录主节点并使用 kubectl 接口访问ceph-tools
。要使用主节点以外的节点,必须复制 admin.conf 文件(在控制主机上的 config-dir 中),并设置kubeconfig
环境变量或使用export KUBECONFIG=config-dir/admin.conf
命令。$ ceph-tools
# ceph osd status
-
验证所有 OSD 是否都列为
exists,up
。如果 OSD 已损坏,请遵循“ 故障排除”Ceph 和 Rook 中说明的故障排除说明。
-
- 在验证是否已创建所有 OSD 之后,登录到您添加或修复的节点。
-
可
udevd
在该节点上重新启用。systemctl unmask system-udevd
编辑单主节点群集中的主节点
在单主节点群集中,您可以同时编辑主节点和工工节点。但是,您无法移除或添加其他主节点。
只有当现有群集已是多主群集时,您才能添加其他主节点。
在节点修复期间,您无法计划新的 Pod,并且现有 Pod 保持非工作状态,从而导致服务降级。
您需要最新版本的 etcd-snapshot.db 文件来恢复单主节点群集中的主节点。
etcd-snapshot.db 文件在 /export/backup/etcd-snapshot.db 中本地备份,每五分钟一次。我们建议您定期将此文件复制到单独的远程位置,或者将此文件安装/导出/备份/复制到外部文件处理器。
要更换或维修主节点,您已准备好 等快照.db 文件。
- 登录要更换或维修的节点。
- 禁用
udevd
守护程序。- 检查 udevd 是否在运行。
# systemctl is-active systemd-udevd
- 如果
udevd
处于活动状态,请将其禁用。# systemctl mask system-udevd --now
- 检查 udevd 是否在运行。
- 登录控制主机。
- 将 etcd-snapshot.db 文件复制到控制主机或恢复外部 /导出/备份/ 安装。
-
运行以下命令之一以更换或维修节点:
如果节点地址没有变化,请使用
./run –c config-dir repair node-ip-address-or-hostname –e etcd_backup=path-to-etcd-snapshot.db
如果节点地址已更改,请使用
./run –c config-dir repair old-node-ip-address-or-hostname,new-node-ip-address-or-hostname –e etcd_backup=path-to-etcd-snapshot.db
-
修复或更换节点时,Ceph 分布式文件系统不会自动更新。如果数据磁盘在维修过程中被销毁,则必须恢复这些数据磁盘上托管的对象存储守护程序 (OSD)。
-
连接到 Ceph 工具箱并查看 OSD 的状态。脚
ceph-tools
本安装在主节点上。您可以登录主节点并使用 kubectl 接口访问ceph-tools
。要使用主节点以外的节点,必须复制 admin.conf 文件(位于 config-dir 控制主机上),并设置kubeconfig
环境变量或使用export KUBECONFIG=config-dir/admin.conf
命令。$ ceph-tools
# ceph osd status
-
验证所有 OSD 是否都列为
exists,up
。如果 OSD 已损坏,请遵循“ 故障排除”Ceph 和 Rook 中说明的故障排除说明。
-
- 验证是否已创建所有 OSD 后,登录您添加或修复的节点。
-
可
udevd
在该节点上重新启用。systemctl unmask system-udevd