GKE su AWS è un servizio gestito che consente di eseguire il provisioning, la gestione e la scalabilità dei cluster Kubernetes nel tuo account AWS.
Gestione delle risorse
GKE su AWS utilizza le API AWS per eseguire il provisioning delle risorse necessarie per il cluster, tra cui macchine virtuali, dischi gestiti, gruppo di scalabilità automatica, gruppi di sicurezza e bilanciatori del carico.
Puoi creare, descrivere ed eliminare i cluster con Google Cloud CLI o l'API GKE Multi-Cloud.
Autenticazione in AWS
Quando configuri GKE su AWS, crei un ruolo AWS IAM nel tuo account AWS con le autorizzazioni richieste. Puoi anche creare un account di servizio nel progetto Google Cloud per stabilire una relazione di attendibilità per la federazione delle identità IAM AWS.Per maggiori informazioni, consulta la panoramica dell'autenticazione.
Risorse su Google Cloud
GKE su AWS utilizza un progetto Google Cloud per archiviare le informazioni di configurazione del cluster su Google Cloud.
Parco risorse e Connect
GKE su AWS registra ogni cluster con un Floet al momento della creazione. Connect consente di accedere alle funzionalità di gestione di cluster e carichi di lavoro da Google Cloud. Il nome dell'appartenenza al parco risorse di un cluster è uguale al nome del cluster.
Puoi abilitare funzionalità come Config Management e Anthos Service Mesh nel parco risorse.
Architettura dei cluster
GKE on AWS esegue il provisioning dei cluster utilizzando subnet private all'interno del tuo virtual private cloud AWS. Ogni cluster è costituito dai seguenti componenti:
Piano di controllo: il piano di controllo Kubernetes utilizza un'architettura ad alta disponibilità con tre repliche. Ogni replica esegue tutti i componenti Kubernetes, tra cui
kube-apiserver
,kube-controller-manager
,kube-scheduler
eetcd
. Ogni istanzaetcd
archivia i dati in un volume EBS e utilizza un'interfaccia di rete per comunicare con altre istanzeetcd
. Viene utilizzato un bilanciatore del carico standard per bilanciare il traffico verso l'endpoint API di Kubernetes,kube-apiserver
.Pool di nodi: un pool di nodi è un gruppo di nodi worker Kubernetes con la stessa configurazione, inclusi tipo di istanza, configurazione disco e profilo istanza. Tutti i nodi in un pool di nodi vengono eseguiti sulla stessa subnet. Per garantire una disponibilità elevata, puoi eseguire il provisioning di più pool di nodi su subnet diverse nella stessa regione AWS.
Il seguente diagramma mostra una struttura di VPC, pool di nodi e piano di controllo di esempio, inclusi il gateway NAT (Network Address Translation) e il bilanciatore del carico. Per creare questa infrastruttura, segui le istruzioni per creare un VPC AWS e la guida rapida.
Passaggi successivi
- Completa i Prerequisiti.