GKE On-Prem 업그레이드

이 페이지에서는 GKE On-Prem을 업그레이드하는 방법을 설명합니다.

대상 버전

GKE On-Prem 버전 1.3.2부터는 동일한 부 출시 버전 또는 다음 부 출시 버전에 있는 모든 버전으로 직접 업그레이드할 수 있습니다. 예를 들어 1.3.2에서 1.4.0으로 업그레이드할 수 있습니다. 1.4.1이 출시되면 1.3.2에서 1.4.1로 직접 업그레이드할 수 있습니다.

다음 표는 직접 업그레이드가 가능한 버전을 보여줍니다.

현재 버전1.4.01.4.11.4.2
1.3.2
1.4.0
1.4.1

현재 버전이 1.3.2 미만인 경우 순차적으로 업그레이드합니다. 예를 들어 1.2.0에서 1.2.2로 업그레이드하려면 먼저 1.2.0에서 1.2.1로 업그레이드 한 다음 1.2.1에서 1.2.2로 업그레이드해야 합니다.

업그레이드 절차 개요

  1. gkeadm 도구를 다운로드합니다. gkeadm 버전은 업그레이드 대상 버전과 동일해야 합니다.

  2. gkeadm을 사용하여 관리자 워크스테이션을 업그레이드합니다.

  3. 관리자 워크스테이션에서 관리자 클러스터를 업그레이드합니다.

  4. 관리자 워크스테이션에서 사용자 클러스터를 업그레이드합니다.

업그레이드 정책

관리자 클러스터를 업그레이드한 후 다음을 확인하세요.

  • 새로 만드는 모든 사용자 클러스터는 관리자 클러스터와 동일한 버전이어야 합니다.

  • 기존 사용자 클러스터를 업그레이드하는 경우 관리자 클러스터와 동일한 버전으로 업그레이드해야 합니다.

  • 관리자 클러스터를 다시 업그레이드하기 전에 모든 사용자 클러스터를 현재 관리자 클러스터와 동일한 버전으로 업그레이드해야 합니다.

구성 및 정보 파일 찾기

현재 관리자 워크스테이션을 만들 때 gkeadm create config로 생성된 관리자 워크스테이션 구성 파일을 채웠습니다. 이 파일의 기본 이름은 admin-ws-config.yaml입니다.

현재 관리자 워크스테이션을 만들 때 gkeadm으로 정보 파일을 만들었습니다. 이 파일의 기본 이름은 현재 관리자 워크스테이션의 이름과 동일합니다.

관리자 워크스테이션 구성 파일과 정보 파일을 찾습니다. 이러한 파일은 이 가이드의 단계를 수행하는 데 필요합니다. 이러한 파일들이 현재 디렉터리에 있고 이름이 모두 기본값인 경우 gkeadm upgrade admin-workstation을 실행할 때 해당 파일들을 지정할 필요가 없습니다. 그러나 이러한 파일들이 다른 디렉터리에 있거나 파일 이름이 변경된 경우에는 --config--info-file 플래그를 사용하여 이를 지정해야 합니다.

관리자 워크스테이션 업그레이드

gkeadm 도구의 새 버전을 다운로드한 후 이 도구를 사용하여 관리자 워크스테이션을 업그레이드합니다. gkeadm 버전은 업그레이드 대상 버전과 일치해야 합니다.

gkeadm을 다운로드하려면 다음을 실행하세요.

gsutil cp gs://gke-on-prem-release-public/gkeadm/[VERSION]/linux/gkeadm ./
chmod +x gkeadm

여기서 [VERSION]은 업그레이드의 대상 버전입니다. 예를 들면 1.5.0-gke.27입니다.

관리자 워크스테이션을 업그레이드하려면 다음을 실행하세요.

gkeadm upgrade admin-workstation --config [AW_CONFIG_FILE] --info-file [INFO_FILE]

각 항목의 의미는 다음과 같습니다.

  • [AW_CONFIG_FILE]는 관리자 워크스테이션 구성 파일의 경로입니다. 파일이 현재 디렉터리에 있고 이름이 admin-ws-config.yaml이면 이 플래그를 생략할 수 있습니다.

  • [INFO_FILE]은 정보 파일의 경로입니다. 파일이 현재 디렉터리에 있으면 이 플래그를 생략할 수 있습니다. 이 파일의 기본 이름은 관리자 워크스테이션의 이름과 동일합니다.

위의 명령어는 다음 작업을 수행합니다.

  • 현재 관리자 워크스테이션의 홈 디렉터리에 있는 모든 파일을 백업합니다. 예를 들면 다음과 같습니다.

    • GKE On-Prem 구성 파일. 이 파일의 기본 이름은 config.yaml입니다.

    • 관리자 클러스터 및 사용자 클러스터의 kubeconfig 파일

    • vCenter Server의 루트 인증서. 이 파일에는 소유자 읽기 및 소유자 쓰기 권한이 있어야 합니다.

    • 허용 목록에 포함된 서비스 계정의 JSON 키 파일입니다. 이 파일에는 소유자 읽기 및 소유자 쓰기 권한이 있어야 합니다.

    • 연결-등록, 연결 에이전트, 로깅 모니터링 서비스 계정의 JSON 키 파일.

  • 새 관리자 워크스테이션을 만들고 백업된 모든 파일을 새 관리자 워크스테이션에 복사합니다.

  • 이전 관리자 워크스테이션을 삭제합니다.

known_hosts에서 이전 관리자 워크스테이션 삭제

관리자 워크스테이션에 고정 IP 주소가 있으면 관리자 워크스테이션을 업그레이드한 후 known_hosts 파일에서 이전 관리자 워크스테이션을 삭제해야 합니다.

known_hosts에서 이전 관리자 워크스테이션을 삭제하려면 다음을 실행하세요.

ssh-keygen -R [ADMIN_WS_IP]

여기서 [ADMIN_WS_IP]는 관리자 워크스테이션의 IP 주소입니다.

GKE On-Prem 구성 파일에서 번들 경로 설정

새 관리자 워크스테이션에서 GKE On-Prem 구성 파일을 엽니다. bundlepath의 값을 새 관리자 워크스테이션의 번들 파일 경로로 설정합니다.

bundlepath: "/var/lib/gke/bundles/gke-onprem-vsphere-[VERSION]-full.tgz"

여기서 [VERSION]은 업그레이드의 대상 버전입니다.

노드 OS 이미지 및 Docker 이미지 업데이트

새 관리자 워크스테이션에서 다음 명령어를 실행하세요.

gkectl prepare --config [CONFIG_FILE] [FLAGS]

각 항목의 의미는 다음과 같습니다.

  • [CONFIG_FILE]는 새 관리자 워크스테이션의 GKE On-Prem 구성 파일입니다.

  • [FLAGS]는 선택사항으로 플래그 집합입니다. 예를 들어 --skip-validation-infra 플래그를 포함하면 vSphere 인프라 확인을 건너뛸 수 있습니다.

위의 명령어는 다음 작업을 수행합니다.

  • 필요한 경우 새 노드 OS 이미지를 vSphere 환경에 복사하고 OS 이미지를 템플릿으로 표시합니다.

  • 비공개 Docker 레지스트리를 구성한 경우 비공개 Docker 레지스트리에 업데이트된 Docker 이미지를 푸시합니다.

사용 가능한 IP 주소가 충분한지 확인

새 관리자 워크스테이션에서 이 섹션의 단계를 수행합니다.

업그레이드하기 전에 클러스터에 사용할 수 있는 IP 주소가 충분한지 확인합니다.

DHCP

업그레이드 중에 GKE On-Prem은 관리자 클러스터에 임시 노드 하나와 연결된 각 사용자 클러스터에 임시 노드 하나를 만듭니다. DHCP 서버가 이러한 임시 노드에 충분한 IP 주소를 제공할 수 있는지 확인합니다. 자세한 내용은 관리자 및 사용자 클러스터에 필요한 IP 주소를 참조하세요.

고정 IP

업그레이드 중에 GKE On-Prem은 관리자 클러스터에 임시 노드 하나와 연결된 각 사용자 클러스터에 임시 노드 하나를 만듭니다. 관리자 클러스터와 각 사용자 클러스터에 IP 주소가 충분하게 예약되어 있는지 확인합니다. 각 클러스터에는 IP 주소가 클러스터 노드 수보다 최소 한 개 이상 많게 예약되어 있어야 합니다. 자세한 내용은 고정 IP 주소 구성을 참조하세요.

관리자 클러스터에서 노드 수를 확인합니다.

kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] get nodes

여기서 [ADMIN_CLUSTER_KUBECONFIG]는 관리자 클러스터의 kubeconfig 파일 경로입니다.

그런 다음 관리자 클러스터용으로 예약된 주소를 확인합니다.

kubectl get cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -o yaml

결과의 reservedAddresses 필드에서 관리자 클러스터 노드용으로 예약된 IP 주소 수를 확인할 수 있습니다. 예를 들어 다음 결과에서는 관리자 클러스터 노드용으로 예약된 IP 주소 5개를 보여줍니다.

...
reservedAddresses:
- gateway: 21.0.135.254
  hostname: admin-node-1
  ip: 21.0.133.41
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-2
  ip: 21.0.133.50
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-3
  ip: 21.0.133.56
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-4
  ip: 21.0.133.47
  netmask: 21
- gateway: 21.0.135.254
  hostname: admin-node-5
  ip: 21.0.133.44
  netmask: 21

예약된 IP 주소의 수는 관리자 클러스터의 노드 수보다 최소 1개 이상 많아야 합니다. 그렇지 않으면 클러스터 객체를 수정하여 주소를 추가로 예약할 수 있습니다.

수정할 클러스터 객체를 엽니다.

kubectl edit cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG]

reservedAddresses에서 gateway, hostname, ip, netmask가 있는 블록을 추가합니다.

중요: 1.5.0부터는 사용자 클러스터에서 동일한 절차가 작동하지 않으며 각 클러스터에 gkectl update cluster를 사용해야 합니다.

사용자 클러스터의 노드 수를 확인하려면 다음을 실행합니다.

kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] get nodes

여기서 [USER_CLUSTER_KUBECONFIG]는 사용자 클러스터의 kubeconfig 파일 경로입니다.

사용자 클러스터에 예약된 주소를 보려면 다음을 실행합니다.

kubectl get cluster --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
-n [USER_CLUSTER_NAME] [USER_CLUSTER_NAME] -o yaml

각 항목의 의미는 다음과 같습니다.

  • [ADMIN_CLUSTER_KUBECONFIG]는 관리자 클러스터의 kubeconfig 파일 경로입니다.

  • [USER_CLUSTER_NAME]은 사용자 클러스터 이름입니다.

예약된 IP 주소의 수는 사용자 클러스터의 노드 수보다 최소 1개 이상 많아야 합니다. 그렇지 않으면 사용자 클러스터의 hostconfig 파일을 열어 편집할 수 있습니다.

  • 사용자 클러스터에 예약된 주소가 hostconfig 파일에 포함된 경우 netmaskgateway에 따라 해당 블록에 주소를 추가합니다.

  • 필요에 따라 해당 블록에 추가 고정 IP 주소를 최대한 많이 추가한 후 gkectl 업데이트 클러스터를 실행합니다.

(선택사항) 새로운 vSphere 기능 사용 중지

새 GKE On-Prem 버전에는 특정 VMware vSphere 기능에 대한 새로운 기능이나 지원이 포함될 수 있습니다. 경우에 따라 GKE On-Prem 버전으로 업그레이드하면 이러한 기능이 자동으로 사용 설정됩니다. 새로운 기능은 GKE On-Prem의 출시 노트를 참조하세요. 새 기능은 GKE On-Prem 구성 파일에 표시되기도 합니다.

새 GKE On-Prem 버전에서 자동으로 사용 설정되고 구성 파일에 의해 구동되는 새 기능을 사용 중지해야 하는 경우 클러스터를 업그레이드하기 전에 다음 단계를 수행합니다.

  1. 업그레이드된 관리자 워크스테이션에서 현재 구성 파일과 다른 이름으로 새 구성 파일을 만듭니다.

    gkectl create-config --config [CONFIG_NAME]
  2. 새 구성 파일을 열고 기능의 필드를 기록해 둡니다. 파일을 닫습니다.

  3. 현재 구성 파일을 열고 새 기능의 필드를 추가합니다. 필드 값을 false 또는 이에 상응하는 값으로 설정합니다.

  4. 구성 파일을 저장합니다.

클러스터를 업그레이드하기 전에 출시 노트를 검토합니다. 기존 클러스터 구성을 업그레이드한 후에는 선언적으로 변경할 수 없습니다.

관리자 클러스터 업그레이드

새 관리자 워크스테이션에서 이 섹션의 단계를 수행합니다.

업그레이드 대상 버전은 gkeadm 버전과 동일해야 합니다.

다음 명령어를 실행합니다.

gkectl upgrade admin \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--config [CONFIG_FILE] \
[FLAGS]

각 항목의 의미는 다음과 같습니다.

  • [ADMIN_CLUSTER_KUBECONFIG]는 관리자 클러스터의 kubeconfig 파일입니다.

  • [CONFIG_FILE]는 새 관리자 워크스테이션의 GKE On-Prem 구성 파일입니다.

  • [FLAGS]는 선택사항으로 플래그 집합입니다. 예를 들어 --skip-validation-infra 플래그를 포함하면 vSphere 인프라 확인을 건너뛸 수 있습니다.

사용자 클러스터 업그레이드

새 관리자 워크스테이션에서 이 섹션의 단계를 수행합니다.

업그레이드 대상 버전은 gkeadm 버전과 동일해야 합니다.

gkectl

gkectl upgrade cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--config [CONFIG_FILE] \
--cluster-name [CLUSTER_NAME] \
[FLAGS]

각 항목의 의미는 다음과 같습니다.

  • [ADMIN_CLUSTER_KUBECONFIG]는 관리자 클러스터의 kubeconfig 파일입니다.

  • [CLUSTER_NAME]은 업그레이드할 사용자 클러스터의 이름입니다.

  • [CONFIG_FILE]는 새 관리자 워크스테이션의 GKE On-Prem 구성 파일입니다.

  • [FLAGS]는 선택사항으로 플래그 집합입니다. 예를 들어 --skip-validation-infra 플래그를 포함하면 vSphere 인프라 확인을 건너뛸 수 있습니다.

Console

설치 중 또는 사용자 클러스터를 만든 후에 Cloud Console을 사용하여 사용자 클러스터를 등록할 수 있습니다. Cloud Console의 GKE 메뉴에서 등록된 GKE On-Prem 클러스터와 Google Kubernetes Engine 클러스터를 확인하고 로그인할 수 있습니다.

GKE On-Prem 사용자 클러스터를 업그레이드할 수 있게 되면 Cloud Console에 알림이 표시됩니다. 이 알림을 클릭하면 사용 가능한 버전 목록과 클러스터를 업그레이드하는 데 실행할 수 있는 gkectl 명령어가 표시됩니다.

  1. Cloud Console에서 GKE 메뉴로 이동합니다.

    GKE 메뉴로 이동

  2. 사용자 클러스터의 알림 열에서 업그레이드 사용 가능을 클릭합니다.

  3. gkectl upgrade cluster 명령어를 복사합니다.

  4. 관리자 워크스테이션에서 gkectl upgrade cluster 명령어를 실행합니다. 여기서 [ADMIN_CLUSTER_KUBECONFIG]는 관리자 클러스터의 kubeconfig 파일이고 [CLUSTER_NAME]은 업그레이드할 사용자 클러스터의 이름이며 [CONFIG_FILE]은 새 관리자 워크스테이션의 GKE On-Prem 구성 파일입니다.

업그레이드 재개

관리자 클러스터가 업그레이드된 후 사용자 클러스터 업그레이드가 중단되면 --skip-validation-all 플래그와 함께 동일한 업그레이드 명령어를 실행하여 사용자 클러스터 업그레이드를 재개할 수 있습니다.

gkectl upgrade cluster \
--kubeconfig [ADMIN_CLUSTER_KUBECONFIG] \
--config [CONFIG_FILE] \
--cluster-name [CLUSTER_NAME] \
--skip-validation-all

관리자 클러스터 업그레이드 재개

관리자 클러스터 업그레이드를 중단해서는 안 됩니다. 현재 관리자 클러스터 업그레이드가 항상 재개되는 것은 아닙니다. 이유에 관계없이 관리자 클러스터 업그레이드가 중단되면 지원팀에 도움을 요청해야 합니다.

업그레이드 후 새로운 사용자 클러스터 만들기

관리자 워크스테이션 및 관리자 클러스터를 업그레이드한 후에는 새로 만드는 모든 사용자 클러스터가 업그레이드 대상 버전과 동일해야 합니다.

알려진 문제

다음은 클러스터 업그레이드에 영향을 미치는 알려진 문제입니다.

버전 1.1.0-gke.6, 1.2.0-gke.6: stackdriver.proxyconfigsecretname 필드 삭제됨

버전 1.1.0-gke.6에서 stackdriver.proxyconfigsecretname 필드가 삭제되었습니다. GKE On-Prem의 실행 전 검사는 필드가 구성 파일에 있으면 오류를 반환합니다.

이 문제를 해결하려면 1.2.0-gke.6으로 업그레이드하기 전에 구성 파일에서 proxyconfigsecretname 필드를 삭제합니다.

Stackdriver는 이전 버전 참조

버전 1.2.0-gke.6 이전의 알려진 문제로 인해 클러스터 업그레이드 후에 Stackdriver가 구성을 업데이트할 수 없습니다. Stackdriver는 여전히 이전 버전을 참조하므로 Stackdriver가 원격 분석 파이프라인의 최신 기능을 수신하지 못합니다. 이 문제로 인해 Google 지원에서 클러스터 문제를 해결하기가 어려워질 수 있습니다.

클러스터를 1.2.0-gke.6으로 업그레이드한 후에 관리자 클러스터와 사용자 클러스터에 다음 명령어를 실행합니다.

kubectl --kubeconfig=[KUBECONFIG] \
-n kube-system --type=json patch stackdrivers stackdriver \
-p '[{"op":"remove","path":"/spec/version"}]'

여기서 [KUBECONFIG]는 클러스터의 kubeconfig 파일 경로입니다.

PodDisruptionBudget으로 워크로드 중단

현재는 클러스터를 업그레이드하면 PodDisruptionBudget(PDB)을 사용하는 워크로드에 장애 또는 다운타임이 발생할 수 있습니다.

버전 1.2.0-gke.6: 업그레이드 후 Prometheus 및 Grafana의 사용이 중지됨

사용자 클러스터에서는 업그레이드 중에 Prometheus와 Grafana의 사용이 자동으로 중지됩니다. 하지만 구성과 측정항목 데이터는 손실되지 않습니다. 관리자 클러스터에서는 Prometheus와 Grafana가 계속 사용됩니다.

자세한 내용은 GKE On-Prem 출시 노트를 참조하세요.

버전 1.1.2-gke.0: 삭제된 사용자 클러스터 노드는 vSAN Datastore에서 삭제되지 않음

자세한 내용은 GKE On-Prem 출시 노트를 참조하세요.

버전 1.1.1-gke.2: vSAN Datastore 폴더의 데이터 디스크 삭제 가능

vSAN Datastore를 사용하는 경우 VMDK를 저장할 폴더를 만들어야 합니다. 알려진 문제로 인해 파일 경로 대신 폴더의 범용 고유 식별자(UUID) 경로를 vcenter.datadisk에 제공해야 합니다. 이러한 불일치로 인해 업그레이드가 실패할 수 있습니다.

자세한 내용은 GKE On-Prem 출시 노트를 참조하세요.

버전 1.0.2-gke.3에서 버전 1.1.0-gke.6으로 업그레이드: OIDC 문제

OpenID Connect(OIDC)가 구성된 1.0.11, 1.0.1-gke.5, 1.0.2-gke.3 버전의 클러스터는 버전 1.1.0-gke.6으로 업그레이드될 수 없습니다. 이 문제는 버전 1.1.1-gke.2에서 해결되었습니다.

설치 중에 OIDC를 사용하여 1.0.11, 1.0.1-gke.5 또는 1.0.2-gke.3 클러스터를 구성한 경우에는 업그레이드할 수 없습니다. 대신 새 클러스터를 만들어야 합니다.

버전 1.0.11에서 버전 1.0.2-gke.3으로 업그레이드

버전 1.0.2-gke.3에는 다음 OIDC 필드(usercluster.oidc)가 도입되었습니다. 이러한 필드를 통해 Cloud Console에서 클러스터에 로그인할 수 있습니다.

  • usercluster.oidc.kubectlredirecturl
  • usercluster.oidc.clientsecret
  • usercluster.oidc.usehttpproxy

OIDC를 사용하려면 Cloud Console에서 클러스터에 로그인하지 않더라도 clientsecret 필드가 필요합니다. OIDC를 사용하려면 clientsecret의 자리표시자 값을 제공해야 할 수 있습니다.

oidc:
  clientsecret: "secret"

노드가 업그레이드 절차를 완료하지 못함

Istio 구성 요소에 대한 PodDisruptionBudget 설정에 따라 Anthos Service Mesh 또는 OSS Istio가 클러스터에 설치되어 있으면 사용자 노드가 제어 영역 버전으로 업그레이드되지 않을 수 있습니다. 이러한 실패를 방지하려면 업그레이드하기 전에 istio-system 네임스페이스의 구성요소에 수평형 Pod 자동 확장 minReplicas 설정을 1에서 2로 늘리는 것이 좋습니다. 이렇게 하면 항상 ASM 제어 영역의 인스턴스가 실행됩니다.

Anthos Service Mesh 1.5 이상 또는 OSS Istio 1.5 이상인 경우:

kubectl patch hpa -n istio-system istio-ingressgateway -p '{"spec":{"minReplicas": 2}}' --type=merge
kubectl patch hpa -n istio-system istiod -p '{"spec":{"minReplicas": 2}}' --type=merge

Anthos Service Mesh 1.4.x 또는 OSS Istio 1.4.x 이상인 경우:

kubectl patch hpa -n istio-system istio-galley -p '{"spec":{"minReplicas": 2}}' --type=merge
kubectl patch hpa -n istio-system istio-ingressgateway -p '{"spec":{"minReplicas": 2}}' --type=merge
kubectl patch hpa -n istio-system istio-nodeagent -p '{"spec":{"minReplicas": 2}}' --type=merge
kubectl patch hpa -n istio-system istio-pilot -p '{"spec":{"minReplicas": 2}}' --type=merge
kubectl patch hpa -n istio-system istio-sidecar-injector -p '{"spec":{"minReplicas": 2}}' --type=merge

부록

버전 1.1.0-gke.6에서 사용 설정된 VMware DRS 규칙 정보

버전 1.1.0-gke.6부터 GKE On-Prem은 사용자 클러스터 노드에 대해 VMware Distributed Resource Scheduler(DRS) 안티어피니티 규칙을 자동으로 만들어 데이터 센터에 있는 최소 3개 이상의 물리적 호스트에 분산되도록 합니다. 버전 1.1.0-gke.6부터 이 기능은 새 클러스터와 기존 클러스터에서 자동으로 사용 설정됩니다.

업그레이드하기 전에 vSphere 환경은 다음 조건을 충족해야 합니다.

  • VMware DRS가 사용 설정되어 있습니다. VMware DRS에는 vSphere 엔터프라이즈 플러스 라이선스 버전이 필요합니다. DRS를 사용 설정하는 방법은 클러스터에서 VMware DRS 사용 설정을 참조하세요.
  • vcenter 필드에 제공된 vSphere 사용자 계정에는 Host.Inventory.EditCluster 권한이 포함됩니다.
  • 사용 가능한 물리적 호스트가 3개 이상입니다.

vSphere 환경이 위의 조건을 충족하지 않는 경우에도 업그레이드할 수 있지만 사용자 클러스터를 1.3.x에서 1.4.x로 업그레이드하려면 안티어피니티 그룹을 사용 중지해야 합니다. 자세한 내용은 GKE On-Prem 출시 노트에서 알려진 문제를 참조하세요.

다운타임

업그레이드 중 다운타임 정보

리소스 설명
관리자 클러스터

관리자 클러스터가 다운되면 다운타임을 유발한 오류의 영향을 받지 않는 한 사용자 클러스터 제어 영역과 워크로드는 사용자 클러스터에서 계속 실행됩니다.

사용자 클러스터 제어 영역

일반적으로 사용자 클러스터 제어 영역에는 뚜렷한 다운타임이 없어야 합니다. 하지만 Kubernetes API 서버로의 장기 실행 연결이 끊어져 다시 설정해야 할 수 있습니다. 이 경우 API 호출자는 연결을 설정할 때까지 다시 시도해야 합니다. 최악의 경우에는 업그레이드 중에 다운타임이 최대 1분간 발생할 수 있습니다.

사용자 클러스터 노드

업그레이드 시 사용자 클러스터 노드를 변경해야 하는 경우 GKE On-Prem은 노드를 롤링 방식으로 다시 만들고 이 노드에서 실행 중인 pod를 다시 예약합니다. 적절한 PodDisruptionBudget안티어피니티 규칙을 설정하여 워크로드에 대한 영향을 방지할 수 있습니다.

문제 해결

자세한 내용은 문제 해결을 참조하세요.

gkectl을 사용하여 클러스터 문제 진단

gkectl diagnose 명령어를 사용하여 클러스터 문제를 식별하고 클러스터 정보를 Google과 공유하세요. 클러스터 문제 진단을 참조하세요.

기본 로깅 동작

gkectlgkeadm의 경우 기본 로깅 설정만 사용해도 됩니다.

  • 기본적으로 로그 항목은 다음과 같이 저장됩니다.

    • gkectl의 경우 기본 로그 파일은 /home/ubuntu/.config/gke-on-prem/logs/gkectl-$(date).log이며 파일은 gkectl을 실행하는 로컬 디렉터리의 logs/gkectl-$(date).log 파일과 심볼릭 링크됩니다.
    • gkeadm의 경우 기본 로그 파일은 gkeadm을 실행하는 로컬 디렉터리의 logs/gkeadm-$(date).log입니다.
  • 모든 로그 항목은 터미널에서 출력되지 않더라도 로그 파일에 저장됩니다(--alsologtostderrfalse인 경우).
  • -v5 세부정보 수준(기본값)에는 지원팀에 필요한 모든 로그 항목이 포함됩니다.
  • 로그 파일에는 실행된 명령어와 실패 메시지도 포함되어 있습니다.

도움이 필요한 경우 로그 파일을 지원팀에 보내는 것이 좋습니다.

로그 파일에 기본값이 아닌 위치 지정

gkectl 로그 파일에 기본값이 아닌 위치를 지정하려면 --log_file 플래그를 사용합니다. 지정한 로그 파일은 로컬 디렉터리와 심볼릭 링크되지 않습니다.

gkeadm 로그 파일에 기본값이 아닌 위치를 지정하려면 --log_file 플래그를 사용합니다.

관리자 클러스터에서 Cluster API 로그 찾기

관리자 제어 영역이 시작된 후에 VM을 시작하지 못하는 경우 다음 안내에 따라 관리자 클러스터에서 Cluster API 컨트롤러의 로그를 검사하여 디버깅할 수 있습니다.

  1. kube-system 네임스페이스에서 Cluster API 컨트롤러 pod의 이름을 찾습니다. 여기서 [ADMIN_CLUSTER_KUBECONFIG]는 관리자 클러스터의 kubeconfig 파일 경로입니다.

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system get pods | grep clusterapi-controllers
  2. pod의 로그를 엽니다. 여기서 [POD_NAME]은 pod 이름입니다. 원하는 경우 grep 또는 유사한 도구를 사용하여 오류를 검색할 수 있습니다.

    kubectl --kubeconfig [ADMIN_CLUSTER_KUBECONFIG] -n kube-system logs [POD_NAME] vsphere-controller-manager