클러스터 만들기

이 페이지에서는 Kubernetes 버전 1.29.4-gke.200의 Azure용 GKE에서 클러스터와 노드 풀을 만드는 방법을 설명합니다.

시작하기 전에

이 페이지의 단계를 완료하려면 다음을 수행하세요.

  1. 기본 요건 구성의 단계를 따르세요.

  2. 제어 영역을 여러 영역 또는 단일 영역에서 실행할지 선택합니다.

  3. 클러스터에 제공할 클래스 없는 도메인 간 라우팅(CIDR) 범위를 선택합니다.

제어 영역의 영역 배치

기본적으로 Azure용 GKE는 선택한 리전에서 3개 영역 간에 동일한 서브넷에 개별 제어 영역 복제본을 배치합니다. 이러한 영역과 서브넷을 선택할 수 있습니다.

기본 제어 영역 복제본 배치를 사용하려면 클러스터의 CIDR 범위 선택으로 건너뜁니다.

Azure NAT 게이트웨이 및 클러스터 제어 영역

각 제어 영역 복제본이 정상 상태로 작동하려면 Google에서 호스팅되는 관리 서비스에도 연결해야 합니다.

Azure NAT 게이트웨이를 사용하여 아웃바운드 연결을 제공하는 경우 영역 장애가 클러스터 제어 영역에 미치는 영향을 고려해야 합니다. 하나의 NAT 게이트웨이 엔드포인트가 단일 영역으로 격리되거나 리전/비영역이고 이것이 단일 장애점을 나타냅니다.

단일 영역에 제어 영역 복제본을 배치하려면 단일 서브넷 및 영역을 사용합니다. 아웃바운드 연결을 위해 NAT 게이트웨이를 사용하는 경우 엔드포인트가 동일한 영역에 배치되었는지 확인합니다.

복제본을 2개 또는 3개의 영역에 배치하려면 클러스터를 만들 때 서브넷 및 영역 목록을 전달할 수 있습니다. 2개의 서브넷과 영역을 전달할 때 Azure용 GKE는 제공된 첫 번째 영역에 2개의 복제본을 배치합니다. 3개의 서브넷과 영역을 전달할 때 Azure용 GKE는 각 서브넷에 복제본을 배치합니다. 자세한 내용은 특정 서브넷에 복제본 배치를 참조하세요.

고가용성을 위해 Azure 서브넷 및 영역을 구성하는 방법에 대한 자세한 내용은 Azure 문서의 영역 스택을 사용한 영역 격리를 참조하세요.

특정 서브넷에 복제본 배치

이 섹션은 선택사항입니다.

제어 영역 복제본이 배치되는 영역을 제어하려면 --replica-placements 플래그를 사용하고 클러스터를 만들 때 서브넷 ID 및 영역 목록을 전달합니다. 제어 영역 복제본을 배치할 서브넷 및 영역은 최대 3개까지 사용할 수 있습니다.

서브넷 목록의 형식을 지정하려면 다음 단계를 수행합니다.

  1. az 명령줄 도구를 사용하여 Azure 서브넷 ID를 가져옵니다.

    az network vnet subnet show \
      --resource-group=VNET_RESOURCE_GROUP_NAME --vnet-name=VNET_NAME \
      --name SUBNET_NAME --query "id" -otsv
    

    다음을 바꿉니다.

    • CLUSTER_RESOURCE_GROUP_NAME: 클러스터를 실행하려는 기존 리소스 그룹 이름
    • VNET_RESOURCE_GROUP_NAME: VNet이 포함된 리소스 그룹 이름
    • VNET_NAME: VNet 이름
    • SUBNET_NAME: 서브넷 이름

    출력은 서브넷의 ID입니다. Azure 서브넷 ID는 다음과 같이 표시됩니다.

    /subscriptions/SUBSCRIPTION_ID/resourceGroups/RESOURCE_GROUP/providers/Microsoft.Network/virtualNetworks/VNET_NAME/subnets/SUBNET_NAME
    

    제어 영역 복제본을 만들 서브넷마다 이 명령어를 반복합니다. 다음 단계를 위해 서브넷 ID를 텍스트 편집기에 복사합니다.

  2. 서브넷 및 영역이 콜론으로 구분되어 있고 서브넷 ID 및 Azure 가용성 영역이 쉼표로 구분된 목록을 만듭니다. 예를 들어 영역 1의 subnet1, 영역 2의 subnet2, 영역 3의 subnet3에 제어 영역 복제본을 만들려면 다음 문자열을 사용합니다.

    /subscriptions/SUBSCRIPTION_ID/resourceGroups/RESOURCE_GROUP/providers/Microsoft.Network/virtualNetworks/VNET_NAME/subnets/subnet1:1,/subscriptions/SUBSCRIPTION_ID/resourceGroups/RESOURCE_GROUP/providers/Microsoft.Network/virtualNetworks/VNET_NAME/subnets/subnet2:2,/subscriptions/SUBSCRIPTION_ID/resourceGroups/RESOURCE_GROUP/providers/Microsoft.Network/virtualNetworks/VNET_NAME/subnets/subnet3:3
    

    이 문자열을 복사해서 클러스터를 만들 때 --replica-placements 플래그에 대한 값으로 사용합니다.

클러스터의 CIDR 범위 선택

Azure용 GKE에서 클러스터를 만들 때 포드 및 서비스에 사용할 IPv4 주소 범위를 제공해야 합니다.

이러한 IP 범위는 클래스 없는 도메인 간 라우팅(CIDR) 표기법(예: 100.64.0.0/16)을 사용하여 지정합니다.

서비스 및 포드에 다음 CIDR 범위를 사용하는 것이 좋습니다.

  • 서비스: 100.64.0.0/16
  • 포드: 100.96.0.0/11

아무 문제 없이 클러스터를 확장할 수 있을 만큼 충분히 큰 범위입니다.

다음 섹션에서 더 자세히 다룹니다.

범위 선택에 대한 세부정보

Azure용 GKE는 포드와 서비스에 오버레이 네트워크를 사용하므로 이러한 네트워크의 IP 범위를 VNet 내에서 라우팅할 필요가 없습니다. 사용하는 모든 IP 범위를 사용할 수 있어야 합니다. 자세한 내용은 Dataplane V2를 참조하세요.

  • 포드와 서비스 IP 범위는 제어 영역이나 노드 풀 서브넷 IP 범위가 포함되지 않는 경우 VNet 네트워크와 겹칠 수 있습니다.

  • 포드와 서비스 IP 범위는 다음 비공개 IP 범위 중 하나에 속해야 합니다.

    • 10.0.0.0/8, 172.16.0.0/12, 192.168.0.0/16 — 비공개 IP 주소(RFC 1918)
    • 100.64.0.0/10 — 공유 주소 공간(RFC 6598)
    • 192.0.0.0/24 — IETF 프로토콜 할당(RFC 6890)
    • 192.0.2.0/24, 198.51.100.0/24, 203.0.113.0/24 — 문서(RFC 5737)
    • 192.88.99.0/24 — IPv6-IPv4 릴레이(지원 중단됨)(RFC 7526)
    • 198.18.0.0/15 — 벤치마크 테스트(RFC 2544)

100.64.0.0/10(RFC 6598) 내의 IP 범위를 사용하는 것이 좋습니다. 이 범위는 이동통신사급 NAT에 예약되며 사용자의 VNet에서 사용되지 않을 가능성이 높습니다.

예를 들어 다음은 포드, 서비스, 노드 네트워크가 겹치지 않는 유효한 구성입니다(VNet은 RFC 1918 비공개 IP 주소를 사용하는 반면 포드와 서비스 네트워크는 RFC 6598 비공개 IP와 겹침).

  • VNet 네트워크: 10.0.0.0/16, 172.16.1.0/24, 172.16.2.0/24
  • 포드 네트워크: 100.65.0.0/16
  • 서비스 네트워크: 100.66.0.0/16

다음은 제어 영역 복제본과 겹치지 않으므로 포드와 서비스 네트워크가 VNet 네트워크와 겹치더라도 유효한 구성입니다.

  • VNet 네트워크: 10.0.0.0/16
  • 포드 네트워크: 10.0.1.0/24
  • 서비스 네트워크: 10.0.2.0/24
  • 제어 영역 복제본 서브넷: 10.0.3.0/24, 10.0.4.0/24, 10.0.5.0/24

다음 구성은 포드 IP 범위가 제어 영역 네트워크와 겹치므로 잘못되었습니다. 이러한 중복으로 인해 워크로드가 VNet 네트워크의 제어 영역 복제본과 통신하지 못할 수 있습니다.

  • VNet 네트워크: 10.0.0.0/16
  • 포드 네트워크: 10.0.1.0/24
  • 서비스 네트워크: 10.1.0.0/24
  • 제어 영역 복제본 서브넷: 10.0.1.0/24, 10.0.2.0/24, 10.0.3.0/24

포드 주소 범위에 대한 세부정보

Kubernetes는 포드 주소 범위에서 포드 객체에 주소를 할당합니다. 클러스터의 포드 범위는 각 노드에 대해 더 작은 범위로 분할됩니다. 포드가 특정 노드에 예약되면 Kubernetes는 노드의 범위에 속하는 포드 IP 주소를 할당합니다.

포드 주소 범위의 크기를 계산하려면 클러스터에 사용할 노드 수와 각 노드에서 실행할 포드 수를 예측해야 합니다.

다음 표에서 실행할 노드 수와 포드 수를 기준으로 포드 CIDR 범위의 크기가 나와 있습니다.

포드 주소 범위 표

포드 주소 범위 최대 포드 IP 주소 수 최대 노드 수 최대 포드 수
/24
가능한 최소 포드 주소 범위
주소 256개 노드 1개 포드 110개
/23 주소 512개 노드 2개 포드 220개
/22 주소 1,024개 노드 4개 포드 440개
/21 주소 2,048개 노드 8개 포드 880개
/20 주소 4,096개 노드 16개 포드 1,760개
/19 주소 8,192개 노드 32개 포드 3,520개
/18 주소 16,384개 노드 64개 포드 7,040개
/17 주소 32,768개 노드 128개 포드 14,080개
/16 주소 65,536개 노드 256개 포드 28,160개
/15 주소 131,072개 노드 512개 포드 56,320개
/14 주소 262,144개 노드 1,024개 포드 112,640개

서비스 주소 범위에 대한 세부정보

Kubernetes는 서비스 객체(예: 이 주소 범위의 부하 분산기)에 가상 IP 주소를 할당합니다.

서비스 주소 범위의 크기를 계산하려면 클러스터에 포함할 서비스 수를 예측해야 합니다.

다음 표에서는 실행할 서비스 수를 기준으로 서비스 CIDR 범위의 크기 권장사항을 제공합니다.

서비스 주소 범위 표

서비스 주소 범위 최대 서비스 수
/27
가능한 최소 서비스 주소 범위
서비스 32개
/26 서비스 64개
/25 서비스 128개
/24 서비스 256개
/23 서비스 512개
/22 서비스 1,024개
/21 서비스 2,048개
/20 서비스 4,096개
/19 서비스 8,192개
/18 서비스 16,384개
/17 서비스 32,768개
/16
가능한 최대 서비스 주소 범위
서비스 65,536개

Azure에 인증

Azure용 GKE는 Azure에 인증하는 두 가지 방법인 워크로드 아이덴티티 제휴클라이언트 인증서 만들기를 제공합니다. 단순하면서도 보안성이 더 높은 워크로드 아이덴티티 제휴 인증이 권장됩니다.

워크로드 아이덴티티 제휴

워크로드 식별 제휴를 사용하면 Azure용 GKE가 Google 서비스 계정을 사용하여 Azure에 인증하고 이를 통해 Azure AD 애플리케이션의 리소스를 관리할 수 있습니다. AzureClient와 달리 인증서를 관리하고 Azure AD에 수동으로 업로드할 필요가 없습니다.

Azure AD 애플리케이션에서 제휴 ID 사용자 인증 정보를 구성하려면 다음 명령어를 실행하세요. 참고로 각 Azure AD 애플리케이션에 최대 20개의 사용자 인증 정보를 추가할 수 있습니다.

  1. Azure 애플리케이션 ID를 환경 변수에 저장합니다.

    APPLICATION_ID=$(az ad app list --all \
      --query "[?displayName=='APPLICATION_NAME'].appId" --output tsv)
    PROJECT_ID="$(gcloud config get-value project)"
    PROJECT_NUMBER=$(gcloud projects describe "$PROJECT_ID" \
    --format "value(projectNumber)")
    
  2. credential.json이라는 JSON 파일을 만듭니다.

    {
      "name": "CREDENTIAL_NAME",
      "issuer": "https://accounts.google.com",
      "subject": "service-PROJECT_NUMBER@gcp-sa-gkemulticloud.iam.gserviceaccount.com",
      "audiences": ["api://AzureADTokenExchange"],
      "description": "Allow GKE on Azure to authenticate to the Azure AD application using a Google service account."
    }
    
    • CREDENTIAL_NAME: 사용자 인증 정보 이름
    • PROJECT_NUMBER: 클러스터를 호스팅하는 Google Cloud 프로젝트 수
  3. Azure AD 애플리케이션에서 제휴 ID 사용자 인증 정보를 만듭니다.

    az ad app federated-credential create --id "${APPLICATION_ID}" --parameters credential.json
    

자세한 내용은 Google Cloud와 Azure AD 워크로드 아이덴티티 제휴 문서를 참조하세요.

Terraform을 사용하여 Azure 제휴 ID 사용자 인증 정보를 프로비저닝할 수도 있습니다. 자세한 내용은 azuread_application_federated_identity_credential을 참조하세요.

사용자 인증 정보를 구성한 후 클러스터에 대해 SSH 키 쌍을 만들거나 선택합니다.

SSH 키 쌍 만들기

클러스터를 만들 때 SSH 키 쌍을 제공해야 합니다. 사용할 키 쌍이 이미 있으면 이 단계를 건너뜁니다.

  1. 새 키 쌍을 만들려면 ssh-keygen 명령줄 도구를 사용합니다.

    ssh-keygen -m PEM -t rsa -b 4096 -f KEY_PATH
    

    KEY_PATH를 새 비공개 키의 경로로 바꿉니다.

  2. 이 키를 환경 변수에 저장합니다.

    SSH_PUBLIC_KEY=$(cat KEY_PATH.pub)
    

    예를 들어 ~/.ssh/anthos-multicloud-key.pub에 새 키 쌍을 만들고 공개 키를 환경 변수에 저장하려면 다음 명령어를 실행합니다.

    ssh-keygen -m PEM -t rsa -b 4096 -f ~/.ssh/anthos-multicloud-key
    SSH_PUBLIC_KEY=$(cat ~/.ssh/anthos-multicloud-key.pub)
    

공개 키를 환경 변수에 저장한 후에는 이제 클러스터를 만들 수 있습니다.

Fleet 호스트 프로젝트 선택

Fleet은 클러스터를 더 큰 그룹으로 조직화하는 Google Cloud의 개념입니다. Fleet을 사용하면 여러 클라우드를 망라하여 다수의 클러스터를 관리하고 일관된 정책을 적용할 수 있습니다. GKE Multi-cloud API는 클러스터가 생성될 때 자동으로 클러스터를 Fleet에 등록합니다.

클러스터를 만들 때 클러스터가 관리될 Fleet 호스트 프로젝트를 지정합니다. Azure용 GKE는 클러스터 이름을 Fleet 멤버십 이름으로 사용하므로 클러스터 이름이 Fleet 전체에서 고유해야 합니다.

프로젝트 간 등록

클러스터가 있는 Google Cloud 프로젝트 이외의 Fleet 호스트 프로젝트를 사용하려면 멀티 클라우드 서비스 에이전트 서비스 계정에 추가 IAM 정책 바인딩을 적용해야 합니다. 그러면 서비스 계정이 Fleet 호스트 프로젝트로 Fleet을 관리할 수 있습니다.

  1. 서비스 에이전트를 프로젝트에 추가하려면 다음 명령어를 실행합니다.

    gcloud beta services identity create --service=gkemulticloud.googleapis.com \
      --project=CLUSTER_PROJECT_NUMBER
    

    CLUSTER_PROJECT_NUMBER를 Google Cloud 프로젝트 번호로 바꿉니다.

  2. 다음 명령어로 이 binding을 할당합니다.

    gcloud projects add-iam-policy-binding FLEET_PROJECT_ID \
      --member="serviceAccount:service-CLUSTER_PROJECT_NUMBER@gcp-sa-gkemulticloud.iam.gserviceaccount.com" \
      --role="roles/gkemulticloud.serviceAgent"
    

    다음을 바꿉니다.

    • FLEET_PROJECT_ID: Fleet 호스트 프로젝트의 Google Cloud 프로젝트
    • CLUSTER_PROJECT_NUMBER: Google Cloud 프로젝트 번호

멀티 클라우드 서비스 에이전트 계정 이름은 service-CLUSTER_PROJECT_NUMBER@gcp-sa-gkemulticloud.iam.gserviceaccount.com 형식입니다.

Google Cloud 콘솔 서비스 계정 페이지에서 서비스 계정을 찾을 수 있습니다. 프로젝트 번호를 찾는 방법에 대한 자세한 내용은 프로젝트 식별을 참조하세요.

클러스터 만들기

클러스터를 만들려면 다음 명령어를 실행하세요.

  1. Azure 리소스 그룹, VNet, 서브넷 ID를 환경 변수에 저장합니다.

    SUBSCRIPTION_ID=$(az account show --query "id" --output tsv)
    TENANT_ID=$(az account list \
      --query "[?id=='${SUBSCRIPTION_ID}'].{tenantId:tenantId}" --output tsv)
    CLUSTER_RG_ID=$(az group show --resource-group=CLUSTER_RESOURCE_GROUP_NAME \
      --query "id" -otsv)
    VNET_ID=$(az network vnet show --resource-group=VNET_RESOURCE_GROUP_NAME \
      --name=VNET_NAME --query "id" -otsv)
    SUBNET_ID=$(az network vnet subnet show \
      --resource-group=VNET_RESOURCE_GROUP_NAME --vnet-name=VNET_NAME \
      --name default --query "id" -otsv)
    

    다음을 바꿉니다.

    • CLUSTER_RESOURCE_GROUP_NAME: 클러스터를 실행하려는 기존 리소스 그룹 이름
    • VNET_RESOURCE_GROUP_NAME: VNet이 포함된 리소스 그룹 이름
    • VNET_NAME: VNet의 이름
  2. Google Cloud CLI로 클러스터를 만듭니다.

    워크로드 아이덴티티 제휴

    gcloud container azure clusters create CLUSTER_NAME \
        --location GOOGLE_CLOUD_LOCATION \
        --fleet-project FLEET_PROJECT \
        --azure-tenant-id "${TENANT_ID}" \
        --azure-application-id "${APPLICATION_ID}" \
        --azure-region AZURE_REGION \
        --pod-address-cidr-blocks POD_CIDR \
        --service-address-cidr-blocks SERVICE_CIDR \
        --vm-size VM_SIZE \
        --cluster-version 1.29.4-gke.200 \
        --ssh-public-key "$SSH_PUBLIC_KEY" \
        --resource-group-id "$CLUSTER_RG_ID" \
        --vnet-id "$VNET_ID" \
        --subnet-id "$SUBNET_ID" # Optional, see following note \
        --tags "control-plane=CLUSTER_NAME" \
        --admin-users ADMIN_USERS_LIST
    

    Azure 클라이언트

    gcloud container azure clusters create CLUSTER_NAME \
        --location GOOGLE_CLOUD_LOCATION \
        --fleet-project FLEET_PROJECT \
        --client CLIENT_NAME \
        --azure-region AZURE_REGION \
        --pod-address-cidr-blocks POD_CIDR \
        --service-address-cidr-blocks SERVICE_CIDR \
        --vm-size VM_SIZE \
        --cluster-version 1.29.4-gke.200 \
        --ssh-public-key "$SSH_PUBLIC_KEY" \
        --resource-group-id "$CLUSTER_RG_ID" \
        --vnet-id "$VNET_ID" \
        --subnet-id "$SUBNET_ID" # Optional, see following note \
        --tags "control-plane=CLUSTER_NAME" \
        --admin-users ADMIN_USERS_LIST
    

    다음을 바꿉니다.

    • CLUSTER_NAME: 클러스터 이름
    • GOOGLE_CLOUD_LOCATION: 클러스터를 관리하는 Google Cloud 위치
    • FLEET_PROJECT: 클러스터를 등록할 Fleet 호스트 프로젝트. 다른 Google Cloud 프로젝트에서 이 클러스터를 관리하려면 프로젝트 간 등록을 참조하세요.
    • AZURE_REGION: Google Cloud 리전과 연결된 지원되는 Azure 리전
    • POD_CIDR: 클러스터의 포드 주소 범위(예: 10.0.1.0/18)
    • SERVICE_CIDR: 클러스터의 서비스 주소 범위
    • VM_SIZE: 지원되는 Azure VM 크기
    • ADMIN_USERS_LIST(선택사항): 관리자 권한을 부여할 사용자의 이메일 주소가 쉼표로 구분된 목록. 예를 들면 다음과 같습니다. 'kai@example.com,hao@example.com,kalani@example' 기본값은 클러스터를 만드는 사용자입니다.
    • CLIENT_NAME: AzureClient 이름
  3. 클러스터 상태를 확인합니다.

    gcloud container azure clusters describe CLUSTER_NAME  --location GOOGLE_CLOUD_LOCATION
    

    다음을 바꿉니다.

    • CLUSTER_NAME
    • GOOGLE_CLOUD_LOCATION

    출력에는 클러스터의 상태 및 구성에 대한 정보가 포함됩니다.

Cloud Logging/Cloud Monitoring 승인

Azure용 GKE가 시스템 로그 및 측정항목을 만들고 Google Cloud에 업로드할 수 있도록 하려면 승인되어야 합니다.

Google Cloud Logging에 로그를 기록하고 Google Cloud Monitoring에 측정항목을 기록하도록 Kubernetes 워크로드 아이덴티티 gke-system/gke-telemetry-agent를 승인하려면 다음 명령어를 실행합니다.

gcloud projects add-iam-policy-binding GOOGLE_PROJECT_ID \
  --member="serviceAccount:GOOGLE_PROJECT_ID.svc.id.goog[gke-system/gke-telemetry-agent]" \
  --role=roles/gkemulticloud.telemetryWriter

GOOGLE_PROJECT_ID를 클러스터의 Google Cloud 프로젝트 ID로 바꿉니다.

이 IAM binding은 Google Cloud 프로젝트의 모든 클러스터가 로그 및 측정항목을 업로드하도록 액세스 권한을 부여합니다. 프로젝트의 첫 번째 클러스터를 만든 후에만 이를 실행해야 합니다.

Google Cloud 프로젝트에 클러스터가 하나 이상 생성되어 있지 않으면 이 IAM 바인딩 추가가 실패합니다. 이는 참조하는 워크로드 아이덴티티 풀(GOOGLE_PROJECT_ID.svc.id.goog)이 클러스터를 만들 때까지 프로비저닝되지 않기 때문입니다.

노드 풀 만들기

노드 풀을 만들려면 다음이 필요합니다.

  • az 명령줄 도구를 사용하여 Azure 서브넷 ID를 검색할 수 있는 권한
  • 클러스터의 SSH 공개 키에 대한 액세스 권한

노드 풀을 만들려면 다음 명령어를 실행합니다.

  1. Azure VNet 서브넷 ID와 SSH 공개 키를 환경 변수에 저장합니다.

    SUBNET_ID=$(az network vnet subnet show \
      --resource-group=VNET_RESOURCE_GROUP_NAME --vnet-name=VNET_NAME \
      --name default --query "id" -otsv)
    SSH_PUBLIC_KEY=$(cat KEY_PATH.pub)
    

    다음을 바꿉니다.

    • VNET_RESOURCE_GROUP_NAME: VNet이 포함된 리소스 그룹 이름
    • VNET_NAME: VNet의 이름
    • KEY_PATH: 키 쌍의 경로
  2. Google Cloud CLI를 사용하여 노드 풀을 만듭니다.

    gcloud container azure node-pools create NODE_POOL_NAME \
        --cluster CLUSTER_NAME \
        --location GOOGLE_CLOUD_LOCATION \
        --node-version 1.29.4-gke.200 \
        --vm-size VM_SIZE \
        --max-pods-per-node 110 \
        --min-nodes MIN_NODES \
        --max-nodes MAX_NODES \
        --ssh-public-key "${SSH_PUBLIC_KEY}" \
        --subnet-id "${SUBNET_ID}"
    

    다음을 바꿉니다.

  3. 노드 풀의 상태를 확인합니다.

    gcloud container azure node-pools describe NODE_POOL_NAME \
        --cluster CLUSTER_NAME \
        --location GOOGLE_CLOUD_LOCATION
    

    다음을 바꿉니다.

    • NODE_POOL_NAME: 노드 풀의 고유한 이름(예: node-pool-1)
    • CLUSTER_NAME: Azure용 GKE 클러스터의 이름
    • GOOGLE_CLOUD_LOCATION: 클러스터를 관리하는 Google Cloud 위치

    출력에는 PROVISIONING 또는 RUNNING을 포함하여 노드 풀의 상태가 포함됩니다.

다음 단계