关闭并开启设备

本页介绍如何关闭和启动 Google Distributed Cloud (GDC) 空气隔离设备。例如:将设备移至新位置。

您可能会在临时运营地点使用 GDC 网闸隔离配置设备,在这种情况下,您需要关闭设备以进行运输,以便在不同地点之间移动设备。您可能还需要从电源故障中恢复设备,因为发电机可能会在恶劣环境下为设备供电。

准备工作

请确保在继续操作之前停止所有工作负载。如果工作负载在关机期间处于活跃状态,Google 无法保证会发生什么情况。

前提条件

  1. 您可以在连接到 Google Distributed Cloud (GDC) 空气隔离设备网络的笔记本电脑或工作站上执行此 runbook。或者,您也可以按照连接设备中的说明将笔记本电脑或工作站连接到交换机。
  2. 确保您有权访问根管理员集群的 kubeconfig。
  3. 运行 export KUBECONFIG=PATH_TO_KUBECONFIG,设置正确的 KUBECONFIG 环境变量。
  4. 确保您拥有 SSH 密钥和证书

关闭刀片

  1. 通过运行 kubectl get nodes -A -o wide 获取节点信息。

  2. 运行以下命令,为所有节点逐个暂停 BareMetalHost 同步。将 NODE_NAME 替换为在第 1 步中获取的节点名称:

    kubectl annotate bmhost -n gpc-system NODE_NAME "baremetalhost.metal3.io/paused=true" --overwrite
    

    输出可能如下例所示:

    baremetalhost.metal3.io/**-**-bm01 annotated
    baremetalhost.metal3.io/**-**-bm02 annotated
    baremetalhost.metal3.io/**-**-bm03 annotated
    
  3. 逐个封锁所有节点:

    kubectl cordon NODE_NAME
    

    输出可能如下例所示:

    node/**-**-bm01 cordoned
    node/**-**-bm02 cordoned
    node/**-**-bm03 cordoned
    
  4. 如需确定 etcd 领导者节点和跟随者节点,请针对所有节点逐一运行此步骤:

    1. 通过记下 kubectl get nodes -A -o wide 输出中 INTERNAL-IP 列下的值,找到 SSH 的目标 IP。建立 SSH 连接:

      ssh root@INTERNAL-IP
      
    2. 如需确定当前节点是 etcd 领导者还是跟随者,请在 SSH 终端中运行以下命令:

      ETCDCTL_API=3 etcdctl \
          --cacert /etc/kubernetes/pki/etcd/ca.crt \
          --cert /etc/kubernetes/pki/etcd/server.crt \
          --key /etc/kubernetes/pki/etcd/server.key \
          --write-out=table endpoint status
      

      请注意 IS LEADER 字段。

      输出可能类似于以下 etcd 领导者节点示例:

      [root@**-**-bm0* ~]# ETCDCTL_API=3 etcdctl \
      >      --cacert /etc/kubernetes/pki/etcd/ca.crt \
      >      --cert /etc/kubernetes/pki/etcd/server.crt \
      >      --key /etc/kubernetes/pki/etcd/server.key \
      >      --write-out=table endpoint status
      +----------------+------------------+--------------+---------+-----------+------------+-----------+------------+--------------------+--------+
      |    ENDPOINT    |        ID        |   VERSION    | DB SIZE | IS LEADER | IS LEARNER | RAFT TERM | RAFT INDEX | RAFT APPLIED INDEX | ERRORS |
      +----------------+------------------+--------------+---------+-----------+------------+-----------+------------+--------------------+--------+
      | ************** | **************** | 3.4.30-gke.1 |  162 MB |      true |      false |      3641 |   12957958 |           12957958 |        |
      +----------------+------------------+--------------+---------+-----------+------------+-----------+------------+--------------------+--------+
      

      对于两个 etcd follower 节点,输出可能如下例所示:

      [root@**-**-bm0* ~]# ETCDCTL_API=3 etcdctl \
      >      --cacert /etc/kubernetes/pki/etcd/ca.crt \
      >      --cert /etc/kubernetes/pki/etcd/server.crt \
      >      --key /etc/kubernetes/pki/etcd/server.key \
      >      --write-out=table endpoint status
      +----------------+------------------+--------------+---------+-----------+------------+-----------+------------+--------------------+--------+
      |    ENDPOINT    |        ID        |   VERSION    | DB SIZE | IS LEADER | IS LEARNER | RAFT TERM | RAFT INDEX | RAFT APPLIED INDEX | ERRORS |
      +----------------+------------------+--------------+---------+-----------+------------+-----------+------------+--------------------+--------+
      | ************** | **************** | 3.4.30-gke.1 |  163 MB |     false |      false |      3641 |   12957404 |           12957404 |        |
      +----------------+------------------+--------------+---------+-----------+------------+-----------+------------+--------------------+--------+
      

      记下节点的 etcd-leader 和 etcd-follower 状态。

  5. 排空两个 etcd follower 节点。不要排空 etcd 领导者节点。

    kubectl drain NODE_NAME --delete-emptydir-data --grace-period 900 --ignore-daemonsets --disable-eviction
    

    输出可能如下所示:

    node/**-**-bm01 already cordoned
    WARNING: ignoring DaemonSet-managed Pods: kube-system/anetd-krj2z, kube-system/etcd-defrag-xh469, kube-system/ipam-controller-manager-2f4dz, kube-system/istio-cni-node-cgqv4, kube-system/kube-proxy-5mwf2, kube-system/localpv-mn2jh, kube-system/metallb-speaker-6l7sv, mon-system/mon-node-exporter-backend-nd8mp, netapp-trident/netapp-trident-node-linux-rrlmd, obs-system/anthos-audit-logs-forwarder-tpfqv, obs-system/anthos-log-forwarder-npjh4, obs-system/kube-control-plane-metrics-proxy-wp8nh, obs-system/log-failure-detector-crbnv, obs-system/oplogs-forwarder-sqwvj, vm-system/macvtap-v9pgp, vm-system/virt-handler-86khx
    pod/grafana-0 deleted
    pod/capi-kubeadm-bootstrap-controller-manager-1.30.400-gke.136lvgtf deleted
    pod/grafana-0 deleted
    pod/grafana-proxy-server-86d8fc4758-mkc4f deleted
    .
    .
    .
    
    node/**-**-bm02 already cordoned
    WARNING: ignoring DaemonSet-managed Pods: kube-system/anetd-v75jz, kube-system/etcd-defrag-t5jnc, kube-system/ipam-controller-manager-5958m, kube-system/istio-cni-node-ggv4c, kube-system/kube-proxy-r6x46, kube-system/localpv-g56xc, kube-system/metallb-speaker-tmw72, mon-system/mon-node-exporter-backend-9rs7k, netapp-trident/netapp-trident-node-linux-9jmfp, obs-system/anthos-audit-logs-forwarder-bwns9, obs-system/anthos-log-forwarder-lbskj, obs-system/kube-control-plane-metrics-proxy-grthl, obs-system/log-failure-detector-dzh4v, obs-system/oplogs-forwarder-vdn7z, vm-system/macvtap-mjwtc, vm-system/virt-handler-dlqvv
    pod/vai-web-plugin-backend-5dfd6d6597-nxxgn
    pod/vai-web-plugin-frontend-6b5468968b-mrr7g
    pod/grafana-proxy-server-64b759fbf6-b8pl8
    pod/iam-bundledidp-backend-0
    .
    .
    .
    
  6. 正常关闭两个 etcd follower 节点。请为两个节点逐一执行后续步骤。

  7. 使用 iLO 关闭 NODE_NAME

    1. 检索 iLO 的用户名:

      kubectl get secret bmc-credentials-NODE_NAME -n gpc-system -o jsonpath="{.data.username}" | base64 --decode
      
    2. 检索 iLO 的密码:

      kubectl get secret bmc-credentials-NODE_NAME -n gpc-system -o jsonpath="{.data.password}" | base64 --decode
      
    3. BMC-IP 列中的值检索 NODE_NAMEBMC-IP 地址:

      kubectl get servers -A
      
    4. 访问在上一步中获得的 BMC-IP 地址,然后输入获得的用户名和密码进行登录。

    5. 将鼠标悬停在第一行中的第一个按钮上。应显示 Power: ON。点击该服务。系统随即会显示一个下拉菜单,点击标记为 Momentary Press 的第一个项目。按钮颜色将从绿色变为橙色,表示节点正在关闭。等待按钮变为黄色,表示设备已关机。这需要几分钟时间。

  8. 在两个 etcd-follower 节点都关闭后,最后对 etcd leader 节点重复执行第 7 步。

移除 Yubikey 以便运输

如果需要在安装完成后运输系统,请移除 Yubikey 并单独运输。确保您自行标记密钥。

开机并连接

如果设备意外断电(例如硬关机),会自动恢复运行。在这种情况下,您应从第 7 步开始,跳过第 1 步到第 6 步。您可能会遇到一些数据丢失问题,但这些数据丢失问题在意外断电后不会持续存在。

行动计划

  1. 在每个节点中插入 YubiKey。

  2. 将 GDC 气隙设备机器插入电源,然后按任意顺序按下每个节点上的电源按钮。

  3. 节点启动后,等待几分钟,让控制平面连接。kubectl 可以在 30 分钟内连接到控制平面。

  4. 运行 kubectl get nodes -A 可获取节点的名称。

  5. 取消封锁每个节点以启用调度:

    kubectl uncordon `NODE_NAME`
    
  6. 恢复每个节点的裸机主机同步:

    kubectl annotate bmhost -n gpc-system NODE_NAME "baremetalhost.metal3.io/paused=false" --overwrite
    
  7. 使用 kubectl get nodes -A 检查节点的状态。

    • 如果所有节点都处于 Ready 状态,请等待两个小时,直到协调流程完成。输出可能如下所示:

      NAME         STATUS     ROLES           AGE     VERSION
      **-**-bm01   Ready      control-plane   4d13h   v1.30.6-gke.300
      **-**-bm02   Ready      control-plane   4d13h   v1.30.6-gke.300
      **-**-bm03   Ready      control-plane   4d13h   v1.30.6-gke.300
      

      在这种情况下,您无需采取进一步行动。

    • 否则,如果一个或多个节点处于“NotReady”状态,请重启某些服务以使集群就绪。输出可能如下所示:

      NAME         STATUS     ROLES           AGE     VERSION
      **-**-bm01   Ready      control-plane   4d13h   v1.30.6-gke.300
      **-**-bm02   Ready      control-plane   4d13h   v1.30.6-gke.300
      **-**-bm03   NotReady   control-plane   4d13h   v1.30.6-gke.300
      

      在这种情况下,请记下未就绪的节点的名称,然后继续执行后续步骤。

  8. 建立与 NotReady 节点的 SSH 连接。SSH 的目标 IP 地址是 kubectl get nodes -A -o wide 输出中 INTERNAL-IP 列下的值:

    ssh root@INTERNAL-IP
    
  9. NotReady 节点上重启 containerdkubelet 服务。以下命令需要在节点上运行,而不能在连接到 Google Distributed Cloud (GDC) 气隙设备的客户笔记本电脑或工作站上运行:

    systemctl stop containerd
    systemctl daemon-reload
    systemctl restart containerd
    systemctl stop kubelet
    systemctl start kubelet
    
  10. 如需验证 containerdkubelet 服务状态,请在 NotReady 节点上运行以下命令:

    systemctl status kubelet
    systemctl status containerd
    

    输出可能如下所示:

    # systemctl status kubelet kubelet.service - kubelet: The Kubernetes Node Agent
    Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled; vendor preset: disabled)
    Drop-In: /etc/systemd/system/kubelet.service.d
            └─00-standalone_containerd.conf, 10-kubeadm.conf
    Active: active (running) since Thu 2025-03-27 07:58:27 UTC; 34s ago
    .
    .
    .
    
    # systemctl status containerd containerd.service - containerd container runtime
    Loaded: loaded (/etc/systemd/system/containerd.service; disabled; vendor preset: disabled)
    Active: active (running) since Thu 2025-03-27 07:58:17 UTC; 52s ago
    .
    .
    .
    

    如果 containerdkubelet 服务在重启后运行正常,请等待两个小时,以便完成协调。