빠른 시작 중 하나를 완료한 경우 특히 Google Cloud 콘솔을 사용하고 제공된 모든 기본 옵션을 사용하도록 선택하면 GKE로 Kubernetes 클러스터를 만드는 것이 매우 간단할 수 있습니다. 실제로는 클러스터 생성이 조금 더 복잡할 수 있습니다. 특히 조직 및 기술적 요구사항에 맞는 클러스터 옵션을 선택하는 경우 그렇습니다. 일부 클러스터 옵션은 클러스터를 다시 만들지 않고는 구성 후에 변경할 수 없으므로 클러스터를 만들기 전에 네트워킹, 보안 또는 다른 동료와 상의하여 결정해야 할 수 있습니다.
Google Cloud 콘솔, gcloud CLI 또는 GKE용 Terraform 제공업체를 사용하여 클러스터를 만들 수 있습니다.
클러스터 구성 옵션(클러스터 생성 후 변경할 수 없는 옵션 포함)에 관한 자세한 내용은 클러스터 구성 개요를 참조하세요.
여러 클러스터를 만들어야 하는지 여부에 관한 몇 가지 고려사항은 멀티 클러스터 사용 사례를 참조하세요.
클러스터 사용
클러스터 관리자의 경우 대부분의 작업이 클러스터를 실행하는 작업과 관련되어 있습니다. 클러스터 상태를 모니터링하고 문제를 해결하는 작업이나 대규모 조직(특히 GKE의 엔터프라이즈 등급을 사용하는 조직)의 경우 Fleet의 일부로 여러 클러스터를 함께 관리하는 작업이 여기에 포함될 수 있습니다. 보안 전문가 또는 네트워킹 전문가인 경우 보안 정책 적용 또는 네트워킹 인프라 구성과 같이 보다 전문적인 작업을 수행할 수 있습니다. GKE를 사용하는 개발자는 클러스터를 만들거나 관리할 필요가 없지만 클러스터에 워크로드를 배포하거나 워크로드 관련 문제를 해결해야 할 수 있습니다.
사용할 수 있는 도구는 다음과 같습니다.
클러스터 및 그 상태를 생성, 관리, 확인하기 위한Google Cloud 도구( Google Cloud 콘솔 및 gcloud CLI 포함)
워크로드 배포 또는 Kubernetes 역할 기반 액세스 제어(RBAC) 정책 적용과 같은 클러스터 내부 작업을 위한 Kubernetes 명령줄 도구 kubectl
GKE는 관리형 서비스이므로 클러스터 노드를 실행하는 가상 머신이나 Kubernetes 컨트롤 플레인 구성요소의 상태와 같은 기본 인프라에 대해 걱정할 필요가 없습니다. GKE에서 이를 대신 관리합니다.
클러스터 관리 개요에서 클러스터 작업 및 이를 위해 사용하는 도구와 워크플로에 대한 자세한 내용을 확인할 수 있습니다. 클러스터 아키텍처 및 GKE 컨트롤 플레인에 대해 자세히 알아보려면 GKE 클러스터 아키텍처를 참조하세요.
클러스터 업그레이드
클러스터 업그레이드는 클러스터의 컨트롤 플레인 및 노드에서 실행되는 GKE 시스템 소프트웨어 버전을 업데이트합니다. 기본적으로 GKE는 클러스터가 보안 업데이트, 알려진 문제의 수정사항, 새 기능을 수신하고 지원되는 Kubernetes 버전을 실행하도록 클러스터를 자동으로 업그레이드합니다.
업그레이드 프로세스를 보다 세부적으로 제어할 수 있도록 GKE는 출시 채널을 제공합니다. 출시 채널을 사용하면 기능 가용성과 안정성 사이에서 선택한 균형에 따라 클러스터에 맞는 버전을 선택할 수 있습니다. 유지보수 기간 및 제외를 사용하면 업그레이드 및 기타 클러스터 유지보수를 수행할 시기를 선택할 수 있습니다.
모든 클러스터는 기본적으로 일반 출시 채널에 등록됩니다. 클러스터 업그레이드 권장사항에서 워크로드 중단을 최소화하면서 출시 채널을 최대한 활용하는 방법을 자세히 알아보세요.
클러스터를 만든 후 변경할 수 있는 항목과 변경할 수 없는 항목에 관한 자세한 내용은 클러스터 구성 개요를 참조하세요.
클러스터 크기 조절
Autopilot 클러스터의 크기는 포드 사양에 따라 자동으로 크기가 조정되므로 클러스터 크기를 조절할 필요가 없습니다. 예를 들어 포드의 복제본 수 또는 포드가 요청하는 리소스를 변경하면 클러스터의 크기가 적절하게 조정되거나 축소됩니다.
Standard 모드를 사용하는 경우 클러스터의 크기를 수동으로 조절하여 클러스터의 노드 수를 늘리거나 줄일 수 있습니다. 예를 들어 클러스터를 삭제하지 않고 리소스 소비를 멈추도록 하려는 경우 노드를 0으로 축소할 수 있습니다. 크기 조절에 대한 자세한 내용은 클러스터 크기 조절을 참조하세요. 클러스터 자동 확장 처리를 사용하여 워크로드의 요구에 따라 클러스터의 노드 풀 크기를 GKE가 자동으로 조절하도록 하거나 노드 자동 프로비저닝을 사용하여 GKE가 노드 풀을 자동으로 만들고 삭제하도록 할 수도 있습니다.
클러스터를 최적화하는 보다 효율적인 방법을 원한다면 수직형 포드 자동 확장(VPA)을 사용할 수도 있습니다. 자동 확장 처리는 CPU 및 메모리의 요청 및 한도 값을 추천하거나 값을 자동으로 업데이트할 수 있습니다.
조직에서 여러 클러스터를 사용하는 경우 Kubernetes 클러스터의 논리적 그룹인 Fleet에 클러스터를 추가하여 멀티 클러스터 관리를 간소화할 수 있습니다. Fleet을 만들면 조직에서 개별 클러스터부터 전체 클러스터 그룹까지 수준 높은 관리를 수행할 수 있으며 멀티 클러스터 인그레스, 구성 동기화, 정책 컨트롤러와 같은 Fleet 지원 기능을 사용할 수 있습니다.
Google Cloud 콘솔이나 gcloud CLI 또는 선언적으로 Terraform 또는 구성 커넥터를 사용해서 Fleet에 GKE 클러스터를 추가할 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-07(UTC)"],[],[],null,["# Cluster lifecycle\n\n[Autopilot](/kubernetes-engine/docs/concepts/autopilot-overview) [Standard](/kubernetes-engine/docs/concepts/choose-cluster-mode)\n\n*** ** * ** ***\n\nThis page provides an overview of the lifecycle of a Google Kubernetes Engine (GKE)\ncluster, including which tasks you can perform yourself and which are managed by\nGoogle Cloud, with links to more detailed guides to get you started.\n\nBefore you read this page, you should be familiar with the following, as well as\n[basic Kubernetes\nconcepts](/kubernetes-engine/docs/learn/get-started-with-kubernetes):\n\n- [GKE overview](/kubernetes-engine/docs/concepts/kubernetes-engine-overview)\n- [GKE modes of operation](/kubernetes-engine/docs/concepts/choose-cluster-mode)\n\nCreating clusters\n-----------------\n\nAs you saw if you completed one of our\n[quickstarts](/kubernetes-engine/docs/quickstarts/create-cluster), creating a\nKubernetes cluster with GKE can be very simple, particularly if\nyou choose to use the Google Cloud console and use all the provided default\noptions. In real life, cluster creation can be a little more complex,\nparticularly when it comes to choosing cluster options to suit your\norganizational and technical needs. You might need to make decisions in\nconsultation with networking, security, or other colleagues before you create\nyour cluster, as some cluster options can't be changed after they're configured\nwithout recreating the cluster.\n\nYou can create clusters using the Google Cloud console, gcloud CLI,\nor the Terraform provider for GKE.\n\n- For more details about cluster configuration options (including options that you can't change after cluster creation), see the [Cluster configuration\n overview](/kubernetes-engine/docs/concepts/types-of-clusters).\n- To learn how to create an Autopilot cluster (recommended), see [Create an Autopilot\n cluster](/kubernetes-engine/docs/how-to/creating-an-autopilot-cluster).\n- To learn how to create a Standard cluster, see [Create a\n Standard\n cluster](/kubernetes-engine/docs/how-to/creating-a-cluster).\n- For some thoughts about whether you need to create multiple clusters, see [Multi-cluster use\n cases](/kubernetes-engine/fleet-management/docs/multi-cluster-use-cases).\n\nWorking with clusters\n---------------------\n\nIf you are a cluster administrator, much of your work will involve working with\nrunning clusters. Tasks might include monitoring and troubleshooting cluster\nstate, or for larger organizations (particularly those using\nGKE's [enterprise tier](/kubernetes-engine/docs/concepts/gke-editions)), managing multiple clusters together as\npart of a [fleet](/kubernetes-engine/fleet-management/docs). If you are\nSecurity specialists or Networking specialists, you might have more\nspecialized tasks such as applying security policies or configuring networking\ninfrastructure. If you are a developer using GKE, you might not\nneed to create or manage clusters, but you might need to deploy workloads to\nclusters, or troubleshoot issues with your workloads.\n\nTools that you might use include the following:\n\n- Google Cloud tools for creating, managing, and viewing clusters and their state, including the Google Cloud console and gcloud CLI.\n- The Kubernetes command-line tool `kubectl` for *cluster-internal* tasks such as deploying workloads or applying Kubernetes role-based access control (RBAC) policies.\n- [Terraform](/kubernetes-engine/docs/terraform) to declaratively provision clusters and workloads.\n\nBecause GKE is a managed service, you don't need to worry about\nthe underlying infrastructure, such as the virtual machines that run your\ncluster nodes, or the state of Kubernetes control plane components:\nGKE manages this for you.\n\nYou can read more about working with clusters and the tools and workflows that\nyou use for this in our [Cluster administration\noverview](/kubernetes-engine/docs/how-to/cluster-admin-overview). To learn more\nabout cluster architecture and the GKE control plane, see [GKE cluster\narchitecture](/kubernetes-engine/docs/concepts/cluster-architecture).\n\nUpgrading clusters\n------------------\n\nA cluster *upgrade* updates the version of the GKE system\nsoftware running on the cluster's control plane and nodes. By default,\nGKE automatically upgrades your clusters to ensure that they\nreceive security updates, fixes to known issues, and new features, and that they\nrun a supported version of Kubernetes.\n\nFor greater control over the upgrade process, GKE provides\n[release channels](/kubernetes-engine/docs/concepts/release-channels). Release\nchannels let you pick versions for your clusters with your chosen balance\nbetween feature availability and stability. [Maintenance windows and exclusions](/kubernetes-engine/docs/concepts/maintenance-windows-and-exclusions)\nlet you choose when you'd like upgrades and other cluster maintenance to occur.\n\nAll clusters\nare enrolled in the Regular release channel by default. You can find out much more about getting the most from release\nchannels with minimal disruption to your workloads in [Best practices for\nupgrading clusters](/kubernetes-engine/docs/best-practices/upgrading-clusters).\n\nYou can also initiate cluster upgrades yourself. To learn more, see [Manually\nupgrading a cluster or node\npool](/kubernetes-engine/docs/how-to/upgrading-a-cluster).\n\nUpdating clusters\n-----------------\n\nAs mentioned in the previous section on creating clusters, there are a\nnumber of changes that you can make to a cluster's configuration after it's been\ncreated. Updates that you *can* make to a cluster include:\n\n- Resize a Standard cluster (Autopilot clusters are resized automatically based on your workload's needs).\n- Add a cluster to a [fleet](/kubernetes-engine/fleet-management/docs).\n- Change the cluster's [release\n channel](/kubernetes-engine/docs/concepts/release-channels).\n- Update zones for Standard clusters.\n- Update the cluster's [maintenance\n policy](/kubernetes-engine/docs/concepts/maintenance-windows-and-exclusions).\n- Update a subset of networking options.\n- Enable and disable cluster features, including backups, logging, monitoring, and more.\n\nFor more details about what you can and can't change after cluster creation, see\n[Cluster configuration\noverview](/kubernetes-engine/docs/concepts/types-of-clusters).\n\nResizing clusters\n-----------------\n\nAutopilot clusters are sized automatically based on your Pod\nspecifications, so resizing your cluster isn't something you need to worry\nabout. For example, if you change the number of replicas of your Pod, or the\nresources it requests, the cluster will be sized up or down appropriately.\n\nIf you use Standard mode, you can manually resize your cluster to increase or decrease the number of\nnodes it has. For example, if you want to stop your cluster from consuming\nresources without deleting it, you can scale the nodes down to zero. To learn\nmore about resizing, see [Resizing a\ncluster](/kubernetes-engine/docs/how-to/resizing-a-cluster). You can\nalso choose to use [cluster autoscaling](/kubernetes-engine/docs/concepts/cluster-autoscaler), letting GKE\nautomatically resize your cluster's node pools based on the demands of your workloads,\nand [node auto-provisioning](/kubernetes-engine/docs/concepts/node-auto-provisioning), where GKE automatically creates\nand deletes node pools for you.\n\nIf you would like a more efficient way to optimize your clusters, you can also\nuse [Vertical Pod Autoscaling\n(VPA)](/kubernetes-engine/docs/concepts/verticalpodautoscaler). The autoscaler\ncan recommend values for CPU and memory requests and limits, or it can\nautomatically update the values.\n\nDeleting clusters\n-----------------\n\nWhen needed, you can delete a cluster. To learn more, see [Deleting a\ncluster](/kubernetes-engine/docs/how-to/deleting-a-cluster).\n\nAdding clusters to a fleet\n--------------------------\n\nIf your organization uses multiple clusters, you can simplify multi-cluster\nmanagement by adding the clusters to a *fleet* : a logical grouping of Kubernetes\nclusters. Creating a fleet helps your organization uplevel management from\nindividual clusters to entire groups of clusters, and lets you use fleet-enabled\nfeatures such as\n[Multi Cluster Ingress](/kubernetes-engine/docs/concepts/multi-cluster-ingress), [Config Sync](/anthos-config-management/docs/config-sync-overview), and [Policy Controller](/anthos-config-management/docs/concepts/policy-controller).\n\nYou can add GKE clusters to a fleet by using the\nGoogle Cloud console, gcloud CLI, or declaratively using Terraform\nor Config Connector.\n\nYou can learn more about how fleets work in [Fleet\nmanagement](/kubernetes-engine/docs/fleets-overview), and about creating fleets\nin [Create fleets to simplify multi-cluster\nmanagement](/kubernetes-engine/docs/how-to/creating-fleets).\n\nWhat's next\n-----------\n\n- Learn more about managing clusters in our [Cluster administration\n overview](/kubernetes-engine/docs/how-to/cluster-admin-overview).\n- Learn more about [cluster configuration\n options](/kubernetes-engine/docs/concepts/types-of-clusters).\n- Learn about [Deploying\n workloads](/kubernetes-engine/docs/get-started/deploy-workloads)."]]