Esta documentación es para la versión actual de GKE en AWS, publicada en noviembre de 2021. Consulta las notas de la versión para obtener más información.
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Los clústeres de GKE en AWS son un servicio administrado que te ayuda a aprovisionar, operar y escalar clústeres de Kubernetes en tu cuenta de AWS.
Administración de recursos
GKE en AWS usa las API de AWS para aprovisionar los recursos que necesita tu clúster, incluidos las máquinas virtuales, los discos administrados, el grupo de ajuste de escala automático, los grupos de seguridad y los balanceadores de cargas.
Cuando configuras GKE en AWS, debes crear un rol de IAM de AWS en tu cuenta de AWS con los permisos necesarios. También debes crear una cuenta de servicio en tu proyecto de Google Cloud a fin de establecer una relación de confianza para la federación de identidades de IAM de AWS.
GKE en AWS usa un proyecto de Google Cloud para almacenar la información de configuración de los clústeres en Google Cloud.
Flotas y Connect
GKE en AWS registra cada clúster con una flota cuando se crea.
Connect permite el acceso a las funciones de administración de cargas de trabajo y clústeres desde Google Cloud. El nombre de la membresía de una flota de un clúster es el mismo que el nombre de su clúster.
Puedes habilitar funciones como Config Management y Anthos Service Mesh dentro de tu flota.
Arquitectura del clúster
GKE en AWS aprovisiona clústeres mediante subredes privadas dentro de tu nube privada virtual de AWS. Cada clúster incluye los siguientes componentes:
Plano de control: El plano de control de Kubernetes usa una arquitectura de alta disponibilidad con tres réplicas. Cada réplica ejecuta todos los componentes de Kubernetes, incluidos kube-apiserver, kube-controller-manager, kube-scheduler y etcd. Cada instancia de etcd almacena datos en un volumen de EBS y usa una interfaz de red para comunicarse con otras instancias de etcd. Se usa un balanceador de cargas estándar para balancear el tráfico hacia el extremo de la API de Kubernetes, kube-apiserver.
Grupos de nodos: Un grupo de nodos es un conjunto de nodos trabajadores de Kubernetes con la misma configuración, incluidos el tipo de instancia, la configuración del disco y el perfil de la instancia. Todos los nodos de un grupo de nodos se ejecutan en la misma subred. Para alta disponibilidad, puedes aprovisionar varios grupos de nodos en diferentes subredes en la misma región de AWS .
En el siguiente diagrama, aparece una VPC de muestra, un grupo de nodos y una estructura del plano de control, incluida la puerta de enlace de traducción de direcciones de red (NAT) y el balanceador de cargas.
Debes crear esta infraestructura con las instrucciones para crear una VPC de AWS y la guía de inicio rápido.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-07-02 (UTC)"],[],[],null,["# GKE on AWS architecture\n\nGKE on AWS is a managed service that helps you provision,\noperate, and scale Kubernetes clusters in your AWS account.\n\nThis page is for Admins and architects and Operators who want to\ndefine IT solutions and system architecture in accordance with company strategy\nand requirements. To learn more about common roles and example tasks that we\nreference in Google Cloud content, see\n[Common GKE user roles and tasks](/kubernetes-engine/enterprise/docs/concepts/roles-tasks).\n\nResource management\n-------------------\n\nGKE on AWS uses AWS APIs to provision the resources\nneeded by your cluster, including virtual machines, managed disks,\nAuto Scaling group,\nsecurity groups, and load balancers.\n\nYou can create, describe, and delete clusters with the\n[Google Cloud CLI](/sdk/gcloud/reference/container/aws) or\n[GKE Multi-Cloud API](/kubernetes-engine/multi-cloud/docs/reference/rest).\n\n### Authenticating to AWS\n\nWhen you set up GKE on AWS, you create an AWS IAM role in your AWS account with the required permissions. You also create a service account in your Google Cloud project to establish a trust relationship for [AWS IAM identity federation](https://aws.amazon.com/identity/federation/).\n\nFor more information, see\n[Authentication overview](/kubernetes-engine/multi-cloud/docs/aws/concepts/authentication).\n\n### Resources on Google Cloud\n\nGKE on AWS uses a Google Cloud project to store cluster configuration\ninformation on Google Cloud.\n| **Warning:** Soon after you delete a Google Cloud project, any cluster resources in AWS are permanently deleted. To safeguard against the accidental deletion of a Google Cloud project, use [Project liens](/resource-manager/docs/project-liens).\n\nFleets and Connect\n------------------\n\nGKE on AWS registers each cluster with a\n[Fleet](/anthos/multicluster-management/fleets) when it is created.\n[Connect](/anthos/multicluster-management/connect/overview) enables\naccess to cluster and workload management features from Google Cloud. A\ncluster's Fleet membership name is the same as its cluster name.\n\nYou can enable features such as Config Management and\nCloud Service Mesh within your Fleet.\n\nCluster architecture\n--------------------\n\nGKE on AWS provisions clusters using private subnets inside your\nAWS Virtual Private Cloud. Each cluster consists of the following components:\n\n- **Control plane** : The Kubernetes control plane uses a high-availability\n architecture with three replicas. Each replica runs all Kubernetes components\n including `kube-apiserver`, `kube-controller-manager`, `kube-scheduler`, and\n `etcd`. Each `etcd` instance stores data in an EBS volume, and uses a\n network interface to communicate with other `etcd` instances. A standard load\n balancer is used to balance traffic to the Kubernetes API endpoint,\n `kube-apiserver`.\n\n \u003cbr /\u003e\n\n- **Node pools**: A node pool is a group of Kubernetes worker nodes\n with the same configuration, including instance type, disk configuration,\n and instance profile. All nodes in a node pool run on the same\n subnet. For high availability, you can provision multiple node pools across\n different subnets in the same AWS region.\n\nThe following diagram shows a sample VPC, node pool, and control plane\nstructure, including network address translation (NAT) gateway and load balancer.\nYou create this infrastructure with the instructions to\n[Create an AWS VPC](/kubernetes-engine/multi-cloud/docs/aws/how-to/create-aws-vpc) and\n[Quickstart](/kubernetes-engine/multi-cloud/docs/aws/quickstart).\n\nWhat's next\n-----------\n\n- Complete the [Prerequisites](/kubernetes-engine/multi-cloud/docs/aws/how-to/prerequisites)."]]