Architecture GKE sur AWS

GKE sur AWS est un service géré qui vous aide à provisionner, exploiter et faire évoluer des clusters Kubernetes dans votre compte AWS.

Architecture de GKE sur AWS montrant le service Google Cloud et les clusters contenant un plan de contrôle et des pools de nœuds

Gestion des ressources

GKE sur AWS utilise des API AWS pour provisionner les ressources nécessaires à votre cluster, y compris les machines virtuelles, les disques gérés, le groupe Auto Scaling, les groupes de sécurité et les équilibreurs de charge.

Vous pouvez créer, décrire et supprimer des clusters avec la Google Cloud CLI ou l'API GKE Multi-Cloud.

S'authentifier auprès d'AWS

Lorsque vous configurez GKE sur AWS, vous créez dans votre compte AWS un rôle AWS IAM avec les autorisations requises. Vous créez également un compte de service dans votre projet Google Cloud pour établir une relation d'approbation pour la fédération d'identité IAM AWS.

Pour en savoir plus, consultez la section Aperçu de l'authentification.

Ressources sur Google Cloud

GKE sur AWS utilise un projet Google Cloud pour stocker les informations de configuration du cluster sur Google Cloud.

Parcs et Connect

GKE sur AWS enregistre chaque cluster dans un parc lors de sa création. Connect permet d'accéder aux fonctionnalités de gestion des clusters et des charges de travail de Google Cloud. Le nom de l'appartenance à un parc d'un cluster est identique au nom de son cluster.

Vous pouvez activer des fonctionnalités telles que Config Management et Anthos Service Mesh dans votre parc.

Architecture d'un cluster

GKE sur AWS provisionne des clusters à l'aide de sous-réseaux privés dans votre cloud privé virtuel AWS. Chaque cluster se compose des éléments suivants :

  • Plan de contrôle : le plan de contrôle de Kubernetes utilise une architecture à haute disponibilité avec trois instances dupliquées. Chaque instance dupliquée exécute tous les composants Kubernetes, y compris kube-apiserver, kube-controller-manager, kube-scheduler et etcd. Chaque instance etcd stocke les données dans un volume EBS et utilise une interface réseau pour communiquer avec d'autres instances etcd. Un équilibreur de charge standard permet d'équilibrer le trafic vers le point de terminaison de l'API Kubernetes, kube-apiserver.

  • Pools de nœuds : un pool de nœuds est un groupe de nœuds de calcul Kubernetes ayant la même configuration, y compris le type d'instance, la configuration du disque et le profil d'instance. Tous les nœuds d'un pool s'exécutent sur le même sous-réseau. Pour assurer une haute disponibilité, vous pouvez provisionner plusieurs pools de nœuds dans différents sous-réseaux de la même région AWS.

Le schéma suivant présente un exemple de structure de VPC, de pool de nœuds et de plan de contrôle, y compris la passerelle NAT et l'équilibreur de charge. Vous créez cette infrastructure en suivant les instructions des pages Créer un VPC AWS et Guide de démarrage rapide.

Exemple de VPC

Étapes suivantes