GKE su AWS è un servizio gestito che ti consente di eseguire il provisioning, operare e scalare i cluster Kubernetes nel tuo account AWS.
Gestione delle risorse
GKE su AWS utilizza le API AWS per eseguire il provisioning delle risorse necessarie al cluster, tra cui macchine virtuali, dischi gestiti, gruppo di scalabilità automatica, gruppi di sicurezza e bilanciatori del carico.
Puoi creare, descrivere ed eliminare i cluster con Google Cloud CLI o l'API GKE Multi-Cloud.
Autenticazione in AWS
Quando configuri GKE su AWS, crei un ruolo AWS IAM nel tuo account AWS con le autorizzazioni richieste. Devi inoltre creare un account di servizio nel progetto Google Cloud per stabilire una relazione di attendibilità per la federazione delle identità AWS IAM.Per ulteriori informazioni, consulta la Panoramica dell'autenticazione.
Risorse su Google Cloud
GKE su AWS utilizza un progetto Google Cloud per archiviare le informazioni di configurazione del cluster su Google Cloud.
Parchi risorse e connessione
GKE su AWS registra ogni cluster con un parco risorse al momento della creazione. Connetti consente di accedere alle funzionalità di gestione dei cluster e dei carichi di lavoro da Google Cloud. Il nome dell'appartenenza al parco risorse di un cluster è uguale al nome del cluster.
Puoi abilitare funzionalità come Config Management e Cloud Service Mesh all'interno del tuo parco risorse.
Architettura dei cluster
GKE su AWS esegue il provisioning dei cluster utilizzando subnet private all'interno di AWS Virtual Private Cloud. Ogni cluster è costituito dai seguenti componenti:
Piano di controllo: il piano di controllo Kubernetes utilizza un'architettura ad alta disponibilità con tre repliche. Ogni replica esegue tutti i componenti Kubernetes, tra cui
kube-apiserver
,kube-controller-manager
,kube-scheduler
eetcd
. Ogni istanzaetcd
archivia i dati in un volume EBS e utilizza un'interfaccia di rete per comunicare con altre istanzeetcd
. Un bilanciatore del carico standard viene utilizzato per bilanciare il traffico verso l'endpoint API di Kubernetes,kube-apiserver
.Pool di nodi: un pool di nodi è un gruppo di nodi worker Kubernetes con la stessa configurazione, tra cui tipo di istanza, configurazione del disco e profilo di istanza. Tutti i nodi in un pool di nodi vengono eseguiti sulla stessa subnet. Per l'alta disponibilità, puoi eseguire il provisioning di più pool di nodi in subnet diverse nella stessa regione AWS.
Il seguente diagramma mostra un VPC di esempio, un pool di nodi e una struttura del piano di controllo, inclusi il gateway NAT (Network Address Translation) e il bilanciatore del carico. Creerai questa infrastruttura seguendo le istruzioni per la creazione di un VPC AWS e la guida rapida.
Passaggi successivi
- Completa i prerequisiti.