AWS용 GKE는 AWS 계정에서 Kubernetes 클러스터를 프로비저닝, 운영, 확장할 수 있게 해주는 관리형 서비스입니다.
이 페이지는 회사 전략과 요구사항에 따라 IT 솔루션 및 시스템 아키텍처를 정의하려는 관리자, 설계자, 운영자를 대상으로 합니다. Google Cloud 콘텐츠에서 참조하는 일반적인 역할과 예시 태스크에 대한 자세한 내용은 일반 GKE Enterprise 사용자 역할 및 태스크를 참조하세요.
리소스 관리
AWS용 GKE는 AWS API를 사용하여 가상 머신, 관리형 디스크, 자동 확장 그룹, 보안 그룹, 부하 분산기를 포함하여 클러스터에 필요한 리소스를 프로비저닝합니다.
AWS용 GKE는 Google Cloud 프로젝트를 사용하여 Google Cloud에 클러스터 구성 정보를 저장합니다.
Fleet 및 Connect
AWS용 GKE는 생성될 때 각 클러스터를 Fleet에 등록합니다.
Connect를 사용하면 Google Cloud에서 클러스터 및 워크로드 관리 기능에 액세스할 수 있습니다. 클러스터의 Fleet 멤버십 이름은 클러스터 이름과 동일합니다.
Fleet 내에서 Config Management 및 Cloud Service Mesh와 같은 기능을 사용 설정할 수 있습니다.
클러스터 아키텍처
AWS용 GKE는 AWS Virtual Private Cloud 내의 비공개 서브넷을 사용하여 클러스터를 프로비저닝합니다. 각 클러스터는 다음 구성요소로 구성됩니다.
컨트롤 플레인: Kubernetes 컨트롤 플레인은 3개 복제본이 포함된 고가용성 아키텍처를 사용합니다. 각 복제본은 kube-apiserver, kube-controller-manager, kube-scheduler, etcd를 포함하여 모든 Kubernetes 구성요소를 실행합니다. 각 etcd 인스턴스는 EBS 볼륨에 데이터를 저장하고 네트워크 인터페이스를 사용하여 다른 etcd 인스턴스와 통신합니다. 표준 부하 분산기는 Kubernetes API 엔드포인트 kube-apiserver에 대한 트래픽을 조정하기 위해 사용됩니다.
노드 풀: 노드 풀은 인스턴스 유형, 디스크 구성, 인스턴스 프로필을 포함하여 동일한 구성을 갖는 Kubernetes 작업자 노드의 그룹입니다. 노드 풀의 모든 노드는 동일한 서브넷에서 실행됩니다. 고가용성을 위해서는 동일한 AWS 리전에서 서로 다른 서브넷 간에 여러 노드 풀을 프로비저닝할 수 있습니다.
다음 다이어그램에서는 네트워크 주소 변환(NAT) 게이트웨이 및 부하 분산기를 포함하여 샘플 VPC, 노드 풀, 컨트롤 플레인 구조를 보여줍니다.
AWS VPC 만들기 및 빠른 시작의 안내에 따라 이 인프라를 만듭니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-22(UTC)"],[],[],null,["# GKE on AWS architecture\n\nGKE on AWS is a managed service that helps you provision,\noperate, and scale Kubernetes clusters in your AWS account.\n\nThis page is for Admins and architects and Operators who want to\ndefine IT solutions and system architecture in accordance with company strategy\nand requirements. To learn more about common roles and example tasks that we\nreference in Google Cloud content, see\n[Common GKE user roles and tasks](/kubernetes-engine/enterprise/docs/concepts/roles-tasks).\n\nResource management\n-------------------\n\nGKE on AWS uses AWS APIs to provision the resources\nneeded by your cluster, including virtual machines, managed disks,\nAuto Scaling group,\nsecurity groups, and load balancers.\n\nYou can create, describe, and delete clusters with the\n[Google Cloud CLI](/sdk/gcloud/reference/container/aws) or\n[GKE Multi-Cloud API](/kubernetes-engine/multi-cloud/docs/reference/rest).\n\n### Authenticating to AWS\n\nWhen you set up GKE on AWS, you create an AWS IAM role in your AWS account with the required permissions. You also create a service account in your Google Cloud project to establish a trust relationship for [AWS IAM identity federation](https://aws.amazon.com/identity/federation/).\n\nFor more information, see\n[Authentication overview](/kubernetes-engine/multi-cloud/docs/aws/concepts/authentication).\n\n### Resources on Google Cloud\n\nGKE on AWS uses a Google Cloud project to store cluster configuration\ninformation on Google Cloud.\n| **Warning:** Soon after you delete a Google Cloud project, any cluster resources in AWS are permanently deleted. To safeguard against the accidental deletion of a Google Cloud project, use [Project liens](/resource-manager/docs/project-liens).\n\nFleets and Connect\n------------------\n\nGKE on AWS registers each cluster with a\n[Fleet](/anthos/multicluster-management/fleets) when it is created.\n[Connect](/anthos/multicluster-management/connect/overview) enables\naccess to cluster and workload management features from Google Cloud. A\ncluster's Fleet membership name is the same as its cluster name.\n\nYou can enable features such as Config Management and\nCloud Service Mesh within your Fleet.\n\nCluster architecture\n--------------------\n\nGKE on AWS provisions clusters using private subnets inside your\nAWS Virtual Private Cloud. Each cluster consists of the following components:\n\n- **Control plane** : The Kubernetes control plane uses a high-availability\n architecture with three replicas. Each replica runs all Kubernetes components\n including `kube-apiserver`, `kube-controller-manager`, `kube-scheduler`, and\n `etcd`. Each `etcd` instance stores data in an EBS volume, and uses a\n network interface to communicate with other `etcd` instances. A standard load\n balancer is used to balance traffic to the Kubernetes API endpoint,\n `kube-apiserver`.\n\n \u003cbr /\u003e\n\n- **Node pools**: A node pool is a group of Kubernetes worker nodes\n with the same configuration, including instance type, disk configuration,\n and instance profile. All nodes in a node pool run on the same\n subnet. For high availability, you can provision multiple node pools across\n different subnets in the same AWS region.\n\nThe following diagram shows a sample VPC, node pool, and control plane\nstructure, including network address translation (NAT) gateway and load balancer.\nYou create this infrastructure with the instructions to\n[Create an AWS VPC](/kubernetes-engine/multi-cloud/docs/aws/how-to/create-aws-vpc) and\n[Quickstart](/kubernetes-engine/multi-cloud/docs/aws/quickstart).\n\nWhat's next\n-----------\n\n- Complete the [Prerequisites](/kubernetes-engine/multi-cloud/docs/aws/how-to/prerequisites)."]]