Google Cloud 콘솔에서 사용자 클러스터 만들기

이 페이지에서는 Google Cloud 콘솔을 사용하여 VMware용 Anthos 클러스터(GKE On-Prem) 사용자 클러스터를 만드는 방법을 설명합니다. 사용자 클러스터를 만들 때 콘솔은 클러스터를 만들도록 선택한 Google Cloud 프로젝트에서 Anthos On-Prem API를 자동으로 사용 설정합니다. Anthos On-Prem API는 Google Cloud 인프라에서 실행되며 콘솔은 이 API를 사용하여 vSphere 데이터 센터에 클러스터를 만듭니다. 클러스터를 관리하려면 Anthos On-Prem API가 클러스터를 만들 때 지정한 Google Cloud 리전에 클러스터 상태에 대한 메타데이터를 저장해야 합니다. 이 메타데이터를 사용하면 Anthos On-Prem API에서 사용자 클러스터 수명 주기를 관리할 수 있으며 워크로드별 데이터는 포함되지 않습니다.

원하는 경우 사용자 클러스터 만들기에 설명된 대로 사용자 클러스터 구성 파일을 만들고 gkectl을 사용하여 사용자 클러스터를 만들 수 있습니다.

Google Cloud 콘솔을 사용하여 gkectl로 만든 클러스터의 수명 주기를 관리하려는 경우 Anthos On-Prem API에서 관리할 사용자 클러스터 구성을 참조하세요.

시작하기 전에

이 섹션에서는 Google Cloud 콘솔에서 사용자 클러스터를 만들기 위한 요구사항을 설명합니다.

IAM 권한 부여

프로젝트 소유자가 아닌 경우 roles/gkeonprem.admin을 부여받아야 합니다.

콘솔에서 Anthos 및 Google Kubernetes Engine 페이지에 액세스하려면 다음 역할도 있어야 합니다.

클러스터가 생성된 후 프로젝트 소유자가 아니고 Connect 게이트웨이를 사용하여 명령줄로 사용자 클러스터에 연결하려는 경우 다음 역할이 필요합니다.

  • roles/gkehub.gatewayAdmin: 이 역할을 통해 Connect Gateway API에 액세스할 수 있습니다. 클러스터에 대한 읽기 전용 액세스만 필요하면 roles/gkehub.gatewayReader로 충분합니다.

  • roles/gkehub.viewer: 이 역할을 통해 클러스터 사용자 인증 정보를 검색할 수 있습니다.

역할 부여에 대한 상세 설명은 프로젝트, 폴더, 조직에 대한 액세스 관리를 참조하세요.

관리자 클러스터 등록

Google Cloud 콘솔에서 사용자 클러스터를 만들려면 먼저 관리자 클러스터가 있어야 하며 Fleet에 등록되어 있어야 합니다.

  • 아직 관리자 클러스터를 만들지 않았으면 관리자 클러스터 구성 파일에서 gkeConnect 섹션을 작성합니다.

  • 관리자 클러스터가 있지만 등록하지 않았으면 관리자 클러스터 등록을 참조하세요.

관리자 클러스터에 관리자 활동 감사 로그 사용 설정

Cloud 감사 로그에 대한 관리자 활동 로깅은 관리자 클러스터에서 사용 설정되어 있어야 합니다.

관리자 클러스터에 시스템 수준 로깅 및 모니터링 사용 설정

관리자 클러스터에서 Cloud LoggingCloud Monitoring을 사용 설정해야 합니다.

필수 Google API

Fleet 호스트 프로젝트에서 모든 필수 Google API가 사용 설정되었는지 확인합니다.

클러스터가 생성된 후 Connect 게이트웨이를 사용하여 명령줄에서 사용자 클러스터에 연결하려면 Connect 게이트웨이 API를 사용 설정합니다.

gcloud services enable --project=FLEET_HOST_PROJECT_ID  \
    connectgateway.googleapis.com

명령줄 액세스 권한

클러스터가 생성된 후 Connect 게이트웨이를 사용하여 명령줄로 사용자 클러스터에 연결하려면 다음을 수행합니다.

다음 명령줄 도구가 설치되었는지 확인합니다.

  • gcloud CLI의 최신 버전
  • Kubernetes 클러스터에 명령어를 실행하기 위한 kubectl. kubectl을 설치해야 하는 경우 이 안내를 따르세요.

Google Cloud와의 상호작용을 위해 Cloud Shell을 셸 환경으로 사용하는 경우 이러한 도구가 자동으로 설치됩니다.

사용자 클러스터 만들기

Google Cloud 콘솔에 있는 대부분의 필드는 사용자 클러스터 구성 파일에 있는 필드에 해당합니다.

  1. Google Cloud 콘솔에서 Anthos 클러스터 페이지로 이동합니다.

    Anthos 클러스터 페이지로 이동

  2. 클러스터를 만들 Google Cloud 프로젝트를 선택합니다. 선택한 프로젝트는 Fleet 호스트 프로젝트로도 사용됩니다. 이 프로젝트는 관리자 클러스터가 등록된 프로젝트와 같아야 합니다. 사용자 클러스터가 생성되면 선택한 프로젝트의 Fleet에 자동으로 등록됩니다.

  3. 클러스터 만들기를 클릭합니다.

  4. 대화상자에서 온프레미스를 클릭합니다.

  5. VMware vSphere 옆에 있는 구성을 클릭합니다.

다음 섹션에서는 사용자 클러스터를 구성하는 방법을 안내합니다.

기본 요건

이 Google Cloud 콘솔 섹션에서는 사용자 클러스터를 만들려면 먼저 완료해야 하는 모든 사항을 간략하게 설명합니다. 사용자 클러스터를 만드는 데 필요한 모든 정보가 있는지 확인했으면 계속을 클릭합니다.

클러스터 기본사항

클러스터에 대한 기본 정보를 입력합니다.

  1. 사용자 클러스터의 이름을 입력합니다.
  2. 관리자 클러스터의 목록에서 관리자 클러스터를 선택합니다. 관리자 클러스터를 만들 때 이름을 지정하지 않았으면 이름은 gke-admin-[HASH] 형식으로 생성됩니다. 관리자 클러스터 이름이 인식되지 않으면 관리자 워크스테이션에서 다음 명령어를 실행합니다.

    KUBECONFIG=ADMIN_CLUSTER_KUBECONFIG
    kubectl get OnPremAdminCluster -n kube-system -o=jsonpath='{.items[0].metadata.name}'
    

    사용하려는 관리자 클러스터가 표시되지 않으면 문제 해결 섹션을 참조하세요. 관리자 클러스터는 클러스터 기본사항 드롭다운 목록에 표시되지 않습니다.

  3. GCP API 위치 필드의 목록에서 Google Cloud 리전을 선택합니다. 이 설정은 Anthos On-Prem API가 실행되는 리전을 제어하는 것 외에도 다음이 저장되는 리전을 제어합니다.

    • Anthos On-Prem API가 클러스터 수명 주기를 관리하는 데 필요한 사용자 클러스터 메타데이터
    • 시스템 구성요소의 Cloud Logging 및 Cloud Monitoring 데이터
    • Cloud 감사 로그에서 만든 관리자 감사 로그
  4. 사용자 클러스터의 VMware용 Anthos 클러스터 버전입니다.

  5. 클러스터 생성자는 클러스터에 대한 클러스터 관리자 권한을 부여받습니다. 필요한 경우 승인 섹션의 클러스터 관리자 필드에 클러스터를 관리할 다른 사용자의 이메일 주소를 입력하세요.

    클러스터가 생성되면 Anthos On-Prem API는 클러스터에 Kubernetes 역할 기반 액세스 제어(RBAC) 정책을 적용하여 사용자 및 다른 관리자에게 모든 네임스페이스의 클러스터 내 모든 리소스에 대한 전체 액세스 권한을 제공하는 Kubernetes clusterrole/cluster-admin 역할을 부여합니다.

  6. 계속을 클릭하여 네트워킹 섹션으로 이동합니다.

네트워킹

이 섹션에서는 클러스터의 노드, 포드, 서비스의 IP 주소를 지정합니다. 사용자 클러스터에는 각 노드마다 하나의 IP 주소와 사용자 클러스터 업그레이드 중 임시 노드에 사용할 추가 IP 주소가 있어야 합니다. 자세한 내용은 사용자 클러스터에 필요한 IP 주소 수를 참조하세요.

  1. 노드 IP 섹션에서 사용자 클러스터의 IP 모드를 선택합니다. 다음 중 하나를 선택합니다.

    • DHCP: 클러스터 노드가 DHCP 서버에서 IP 주소를 가져오도록 하려면 DHCP를 선택합니다.

    • 고정: 클러스터 노드에 고정 IP 주소를 제공하거나 수동 부하 분산을 설정하려면 고정을 선택합니다.

  2. DHCP를 선택한 경우 다음 단계로 건너뛰고 서비스 및 포드 CIDR을 지정합니다. 고정 IP 모드에 다음 정보를 입력합니다.

    1. 사용자 클러스터용 게이트웨이의 IP 주소를 입력합니다.
    2. 사용자 클러스터 노드의 서브넷 마스크를 입력합니다.

    3. IP 주소 섹션에서 IP 주소를 입력하고 원하는 경우 사용자 클러스터에 있는 노드의 호스트 이름을 입력합니다. 개별 IP v4 주소(예: 192.0.2.1) 또는 IPv4 주소의 CIDR 블록(예: 192.0.2.0/24)을 입력할 수 있습니다.

      • CIDR 블록을 입력하는 경우 호스트 이름을 입력하지 마세요.
      • 개별 IP 주소를 입력할 경우 호스트 이름을 선택적으로 입력할 수 있습니다. 호스트 이름을 입력하지 않으면 VMware용 Anthos 클러스터가 vSphere의 VM 이름을 호스트 이름으로 사용합니다.
    4. 필요에 따라 + IP 주소 추가를 클릭하여 IP 주소를 더 입력합니다.

  3. 서비스 및 포드 CIDR 섹션에서 콘솔은 Kubernetes 서비스 및 포드에 다음 주소 범위를 제공합니다.

    • 서비스 CIDR: 10.96.0.0/20
    • 포드 CIDR: 192.168.0.0/16

    자체 주소 범위를 입력하려면 포드 및 서비스의 IP 주소에서 권장사항을 참조하세요.

  4. 고정 IP 모드를 선택한 경우 호스트 구성 섹션에서 다음 정보를 지정합니다.

    1. DNS 서버의 IP 주소를 입력합니다.
    2. NTP 서버의 IP 주소를 입력합니다.
    3. 원하는 경우 DNS 검색 도메인을 입력합니다.
  5. 계속을 클릭하여 부하 분산기 섹션으로 이동합니다.

부하 분산기

클러스터에 설정할 부하 분산기를 선택합니다. 자세한 내용은 부하 분산기 개요를 참조하세요.

목록에서 부하 분산기 유형을 선택합니다.

MetalLB와 함께 번들로 제공

MetalLB를 사용하여 번들 부하 분산을 구성합니다. 이 옵션에는 최소한의 구성만 필요합니다. MetalLB는 클러스터 노드에서 직접 실행되며 추가 VM이 필요하지 않습니다. MetalLB 사용의 이점과 다른 부하 분산 옵션과의 비교에 대한 자세한 내용은 MetalLB를 사용한 번들 부하 분산을 참조하세요.

  1. 주소 풀 섹션에서 다음과 같이 주소 풀을 최소 하나 이상 구성합니다.

    1. 주소 풀의 이름을 입력합니다.

    2. 인그레스 VIP를 포함하는 IP 주소 범위를 CIDR 표기법(예: 192.0.2.0/26) 또는 범위 표기법(예: 192.0.2.64-192.0.2.72)으로 입력합니다. 풀에 단일 IP 주소를 지정하려면 /32를 CIDR 표기법으로 사용합니다(예: 192.0.2.1/32).

    3. LoadBalancer 유형 서비스의 IP 주소가 인그레스 VIP와 동일한 IP 주소 범위에 없으면 + IP 주소 범위 추가를 클릭하고 다른 주소 범위를 입력합니다.

      각 풀의 IP 주소는 겹칠 수 없으며 클러스터 노드와 동일한 서브넷에 있어야 합니다.

    4. IP 주소 할당에서 다음 중 하나를 선택합니다.

      • 자동: MetalLB 컨트롤러가 주소 풀의 IP 주소를 LoadBalancer 유형의 서비스에 자동으로 할당하도록 하려면 이 옵션을 선택합니다.
      • 수동: 풀의 주소를 사용하여 LoadBalancer 유형의 서비스 주소를 수동으로 지정하려면 이 옵션을 선택합니다.
    5. MetalLB 컨트롤러가 .0 또는 .255로 끝나는 풀의 주소를 사용하지 않도록 하려면 버그가 있는 IP 주소 방지를 클릭합니다. 이렇게 하면 버그가 있는 소비자 기기가 특수한 IP 주소로 전송된 트래픽을 실수로 차단하는 문제를 방지할 수 있습니다.

    6. 완료하면 완료를 클릭합니다.

  2. 필요한 경우 주소 풀 추가를 클릭합니다.

  3. 가상 IP 섹션에서 다음을 입력합니다.

    • 제어 영역 VIP: 사용자 클러스터의 Kubernetes API 서버로 전송되는 트래픽에 사용할 대상 IP 주소입니다. 사용자 클러스터의 Kubernetes API 서버가 관리자 클러스터의 노드에서 실행됩니다. 이 IP 주소는 관리자 클러스터 노드와 동일한 L2 도메인에 있어야 합니다. 주소 풀 섹션에 이 주소를 추가하지 마세요.

    • 인그레스 VIP: 인그레스 프록시의 부하 분산기에서 구성할 IP 주소입니다. 주소 풀 섹션의 주소 풀에 이 주소를 추가해야 합니다.

  4. 계속을 클릭합니다.

F5 Big-IP 부하 분산기

관리자 클러스터에서 F5를 사용하는 경우에만 사용자 클러스터에 F5를 사용할 수 있습니다. VMware용 Anthos 클러스터와 통합하기 전에 F5 BIG-IP ADC를 설치하고 구성해야 합니다. 자세한 내용은 F5 BIG-IP ADC 설치 가이드를 참조하세요.

  1. 가상 IP 섹션에서 다음을 입력합니다.

    • 제어 영역 VIP: Kubernetes API 서버로 전송되는 트래픽에 사용할 대상 IP 주소입니다.

    • 인그레스 VIP: 인그레스 프록시의 부하 분산기에서 구성할 IP 주소입니다.

  2. 주소 필드에 F5 BIG-IP 부하 분산기의 주소를 입력합니다.

  3. 파티션 필드에 사용자 클러스터용으로 만든 BIG-IP 파티션의 이름을 입력합니다.

  4. sNAT 풀 이름 필드에 SNAT 풀 이름을 입력합니다(해당되는 경우).

  5. 계속을 클릭합니다.

수동 부하 분산기

수동 부하 분산을 구성합니다. VMware용 Anthos 클러스터에서 로그 집계에 사용되는 Kubernetes API 서버, 인그레스 프록시, 부가기능 서비스는 각각 LoadBalancer 유형의 Kubernetes 서비스에 의해 노출됩니다. 이러한 서비스의 30000~32767 범위에서 고유한 nodePort 값을 선택합니다. 인그레스 프록시의 경우 HTTP 및 HTTPS 트래픽 모두에 nodePort 값을 선택합니다. 자세한 내용은 수동 부하 분산 모드 사용 설정을 참조하세요.

  1. 가상 IP 섹션에서 다음을 입력합니다.

    • 제어 영역 VIP: Kubernetes API 서버로 전송되는 트래픽에 사용할 대상 IP 주소입니다.

    • 인그레스 VIP: 인그레스 프록시의 부하 분산기에서 구성할 IP 주소입니다.

  2. 제어 영역 노드 포트 필드에 Kubernetes API 서버의 nodePort 값을 입력합니다. 사용자 클러스터의 Kubernetes API 서버가 관리자 클러스터에서 실행됩니다.

  3. 인그레스 HTTP 노드 포트 필드에 인그레스 프록시에 대한 HTTP 트래픽의 nodePort 값을 입력합니다.

  4. 인그레스 HTTPS 노드 포트 필드에 인그레스 프록시에 대한 HTTPS 트래픽의 nodePort 값을 입력합니다.

  5. Konnectivity 서버 노드 포트 필드에 Konnectivity 서버의 nodePort 값을 입력합니다.

  6. 계속을 클릭합니다.

제어 영역

사용자 클러스터의 제어 영역 구성요소를 실행하는 관리자 클러스터의 노드에 구성된 기본값을 검토하고 필요에 따라 값을 조정합니다.

  1. 제어 영역 노드 vCPU 필드에 사용자 클러스터의 제어 영역으로 작동하는 각 관리자 클러스터 노드의 vCPU 수(최솟값 4)를 입력합니다.
  2. 제어 영역 노드 메모리 필드에 사용자 클러스터의 제어 영역 역할을 하는 각 관리자 클러스터 노드의 메모리 크기를 MiB(최소 8,192이고 4의 배수여야 함)로 입력합니다.
  3. 제어 영역 노드에서 사용자 클러스터의 제어 영역 노드 수를 선택합니다. 예를 들어 개발 환경에는 제어 영역 노드 1개를 선택하고 고가용성(HA), 프로덕션 환경에는 제어 영역 노드 3개를 선택할 수 있습니다. 사용자 제어 영역은 관리자 클러스터 노드에 있으므로 제어 영역 노드마다 IP 주소를 별도로 충분히 설정해야 합니다. 자세한 내용은 관리자 클러스터에 필요한 IP 주소는 몇 개인가요?를 참조하세요.

  4. 계속을 클릭하여 기능 섹션으로 이동합니다.

특성

이 섹션에서는 클러스터에 사용 설정된 기능과 작업을 보여줍니다.

다음 기능은 자동으로 사용 설정되어 있으며 중지될 수 없습니다.

다음은 기본적으로 사용 설정되어 있지만 중지될 수 있습니다.

  • vSphere CSI 드라이버 사용 설정: vSphere 컨테이너 스토리지 플러그인이라고도 합니다. 컨테이너 스토리지 인터페이스(CSI) 드라이버는 vSphere에 배포된 기본 Kubernetes 클러스터에서 실행되어 vSphere 스토리지에 영구 볼륨을 프로비저닝합니다. 자세한 내용은 vSphere 컨테이너 스토리지 인터페이스 드라이버 사용을 참조하세요.
  • 안티-어피니티 그룹 사용 설정: VMware Distributed Resource Scheduler(DRS) 안티-어피니티 규칙이 사용자 클러스터 노드에 자동으로 생성되므로 데이터 센터에서 물리적 호스트 최소 3개 이상에 분산됩니다. vSphere 환경에서 요구사항을 충족하는지 확인합니다.

노드 풀

하나 이상의 노드 풀이 있는 클러스터가 생성됩니다. 노드 풀은 이 클러스터에서 만든 노드 그룹의 템플릿입니다. 자세한 내용은 노드 풀 만들기 및 관리를 참조하세요.

  1. 노드 풀 기본값 섹션에서 다음을 완료합니다.

    1. 노드 풀 이름을 입력하거나 이름으로 'default-pool'을 수락합니다.
    2. 풀에 있는 각 노드의 vCPU 수를 입력합니다. 사용자 클러스터 작업자당 최소 4개입니다.
    3. 풀의 각 노드에 대한 메모리 크기를 메비바이트(MiB) 단위로 입력합니다(사용자 클러스터 워커 노드당 최소 8,192MiB이며 4의 배수여야 함).
    4. 노드 필드에 풀의 노드 수를 입력합니다(최솟값 3). 네트워킹 섹션에서 노드 IP의 고정 IP 주소를 입력한 경우 이러한 사용자 클러스터 노드를 수용할 수 있는 충분한 IP 주소를 입력했는지 확인합니다.
    5. OS 이미지 유형(Ubuntu, Ubuntu Containerd, COS)을 선택합니다.
    6. 부팅 디스크 크기를 기비바이트(GiB) 단위(최소 40GiB)로 입력합니다.
    7. MetalLB를 부하 분산기로 사용하는 경우 하나 이상의 노드 풀에서 MetalLB를 사용 설정해야 합니다. MetalLB 부하 분산에 이 노드 풀 사용을 선택한 상태로 두거나 MetalLB에 사용할 다른 노드 풀을 추가합니다.
  2. 노드 풀 메타데이터(선택사항) 섹션에서 Kubernetes 라벨taint를 추가하려면 다음 안내를 따르세요.

    1. + Kubernetes 라벨 추가를 클릭합니다. 라벨의 을 입력합니다. 필요한 경우 반복합니다.
    2. + taint 추가를 클릭합니다. taint의 , , 효과를 입력합니다. 필요한 경우 반복합니다.

확인 및 완료

확인 및 완료를 클릭하여 사용자 클러스터를 만듭니다. 사용자 클러스터를 만드는 데 15분 이상 걸립니다. 콘솔은 설정을 확인하고 데이터 센터에 클러스터를 만들 때 상태 메시지를 표시합니다.

설정 확인 중에 오류가 발생하면 콘솔에 오류 메시지가 표시됩니다. 오류 메시지는 구성 문제를 해결하고 클러스터를 만들려고 시도할 수 있도록 아주 명확해야 합니다.

발생 가능한 오류와 해결 방법에 대한 자세한 내용은 Google Cloud 콘솔에서 사용자 클러스터 생성 문제 해결을 참조하세요.

사용자 클러스터에 연결

콘솔에서 사용자 클러스터를 만들 때 클러스터는 Google Cloud ID를 사용하여 클러스터에 로그인할 수 있도록 Kubernetes 역할 기반 액세스 제어(RBAC) 정책으로 구성됩니다. 다른 작업자가 Google Cloud ID를 사용하여 로그인할 수 있도록 클러스터와 프로젝트를 구성하려면 Connect 게이트웨이 설정을 참조하세요.

모든 클러스터에는 표준 엔드포인트가 있습니다. 이 엔드포인트는 kubectl 및 기타 서비스가 TCP 포트 443을 통해 클러스터 제어 영역과 통신하는 데 사용하는 Kubernetes API 서버를 노출합니다. 공개 인터넷에서 이 엔드포인트에 액세스할 수 없습니다. VPC를 통해 클러스터의 비공개 엔드포인트에 액세스할 수 있으면 비공개 엔드포인트에 직접 연결하고 kubeconfig 파일을 직접 생성할 수 있습니다. 그렇지 않으면 Connect 게이트웨이를 사용하면 됩니다. 이 경우 kubectl에서 Connect를 사용합니다. 그러면 트래픽이 사용자 대신 비공개 엔드포인트로 안전하게 전달됩니다.

명령줄에서 사용자 클러스터에 액세스하려면 kubeconfig 파일이 필요합니다. kubeconfig 파일을 가져오는 방법에는 두 가지가 있습니다.

  • Connect 게이트웨이를 사용하여 Google Cloud CLI가 설치된 컴퓨터에서 클러스터에 액세스합니다. Connect 게이트웨이를 사용하면 클러스터를 간편하고 안전하게 관리할 수 있습니다. 자세한 내용은 Connect 게이트웨이로 등록된 클러스터에 연결을 참조하세요.

  • 비공개 엔드포인트에 직접 액세스하려면 관리자 워크스테이션에서 kubeconfig 파일을 만들고 관리자 워크스테이션에서 클러스터를 관리합니다.

콘솔에서 사용자 클러스터 상태가 정상으로 표시될 때까지 기다려야 합니다.

Connect 게이트웨이

  1. Fleet 호스트 프로젝트에서 사용할 gcloud CLI를 초기화하거나 다음 명령어를 실행하여 Google 계정으로 로그인하고 Fleet 호스트 프로젝트를 기본값으로 설정하고 구성요소를 업데이트합니다.

    gcloud auth login
    gcloud config set project FLEET_HOST_PROJECT_ID
    gcloud components update
    
  2. Connect 게이트웨이와 상호작용하는 데 사용되는 클러스터 사용자 인증 정보를 가져옵니다. 다음 명령어에서 MEMBERSHIP_NAME을 클러스터 이름으로 바꿉니다. VMware용 Anthos 클러스터에서 멤버십 이름은 클러스터 이름과 동일합니다.

    gcloud container fleet memberships get-credentials MEMBERSHIP_NAME
    

    이 명령어는 게이트웨이를 통해 클러스터에 연결할 수 있는 특수한 Connect 게이트웨이별 kubeconfig를 반환합니다.

    필요한 사용자 인증 정보가 있으면 일반적인 Kubernetes 클러스터에서처럼 kubectl을 사용하여 명령어를 실행할 수 있으며 kubeconfig 파일 이름을 지정할 필요가 없습니다. 예를 들면 다음과 같습니다.

    kubectl get namespaces
    

관리자 워크스테이션

관리자 워크스테이션에서 사용자 클러스터 kubeconfig 파일을 만들려면 다음 명령어를 실행하여 사용자 클러스터의 새 kubeconfig 파일을 로컬로 저장합니다. 다음을 바꿉니다.

  • CLUSTER_NAME: 새로 생성된 사용자 클러스터의 이름입니다.
  • ADMIN_CLUSTER_KUBECONFIG: 관리자 클러스터 kubeconfig 파일의 경로입니다.
  • USER_CLUSTER_KUBECONFIG: 명령어가 출력하는 사용자 클러스터 kubeconfig 파일의 이름입니다.
kubectl get secret admin \
  --kubeconfig ADMIN_CLUSTER_KUBECONFIG \
  -n CLUSTER_NAME \
  -o=jsonpath='{.data.admin\.conf}' | base64 -d > USER_CLUSTER_KUBECONFIG

파일이 저장되면 관리자 워크스테이션에서 kubectl을 사용하여 사용자 클러스터에 액세스할 수 있습니다. 예를 들면 다음과 같습니다.

kubectl --kubeconfig USER_CLUSTER_KUBECONFIG get namespaces

다음 단계