Un servizio di gestione crea, aggiorna ed elimina GKE su cluster AWS. Questo argomento spiega come creare un servizio di gestione all'interno di un VPC (Virtual Private Cloud) AWS dedicato. Se disponi di un VPC, consulta invece Integrazione con l'infrastruttura esistente.
Prima di iniziare
Prima di iniziare a utilizzare GKE su AWS, assicurati di aver eseguito le seguenti attività:
- Completa i prerequisiti.
-
Esegui l'autenticazione con Google Cloud CLI.
gcloud auth login && \ gcloud auth application-default login
Valori che ti servono
Per completare questo argomento, devi avere quanto segue dei prerequisiti:
- ARN o alias delle chiavi KMS
- Chiavi degli account di servizio Google Cloud
- Progetto Google Cloud
- Gli strumenti a riga di comando
aws
,terraform
eanthos-gke
sono stati installati e configurati. - La regione AWS e le zone di disponibilità in cui GKE su AWS crea il cluster di gestione.
Configura il servizio di gestione
Puoi configurare GKE su AWS di gestione del servizio con un file YAML. Il file è simile a una configurazione di risorse personalizzate Kubernetes, ma non è una rappresentazione di una risorsa.
Apri un terminale sul computer in cui hai installato e configurato gli strumenti a riga di comando
aws
,terraform
eanthos-gke
.Crea una directory vuota per la configurazione di GKE su AWS e passa a questa directory. La documentazione di GKE su AWS utilizza
anthos-aws
come directory di configurazione di esempio.mkdir anthos-aws cd anthos-aws
Crea un file denominato
anthos-gke.yaml
in un editor di testo. Incolla i seguenti contenuti nel file.apiVersion: multicloud.cluster.gke.io/v1 kind: AWSManagementService metadata: name: management spec: version: aws-1.14.1-gke.0 region: AWS_REGION authentication: awsIAM: adminIdentityARNs: - ADMIN_AWS_IAM_ARN kmsKeyARN: KMS_KEY_ARN databaseEncryption: kmsKeyARN: DATABASE_KMS_KEY_ARN googleCloud: projectID: GCP_PROJECT_ID serviceAccountKeys: managementService: MANAGEMENT_KEY_PATH connectAgent: HUB_KEY_PATH node: NODE_KEY_PATH dedicatedVPC: vpcCIDRBlock: VPC_CIDR_BLOCK availabilityZones: - ZONE_1 - ZONE_2 - ZONE_3 privateSubnetCIDRBlocks: - PRIVATE_CIDR_BLOCK_1 - PRIVATE_CIDR_BLOCK_2 - PRIVATE_CIDR_BLOCK_3 publicSubnetCIDRBlocks: - PUBLIC_CIDR_BLOCK_1 - PUBLIC_CIDR_BLOCK_2 - PUBLIC_CIDR_BLOCK_3 # Optional bastionHost: allowedSSHCIDRBlocks: - SSH_CIDR_BLOCK proxy: PROXY_JSON_FILE # optional
Sostituisci i seguenti valori:
AWS_REGION con la regione AWS in cui eseguire il cluster.
ADMIN_AWS_IAM_ARN con il nome della risorsa Amazon dell'utente con le autorizzazioni AWS IAM per creare un servizio di gestione. Per autenticare l'ARN dell'utente nello strumento
aws
, eseguiaws sts get-caller-identity
.KMS_KEY_ARN con il nome della risorsa Amazon della chiave KMS AWS o l'alias della chiave KMS che protegge i dati del servizio di gestione durante la creazione. Ad esempio,
arn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab
. Se non disponi dell'ARN, eseguiaws kms list-keys
per recuperare un elenco di ARN.DATABASE_KMS_KEY_ARN con il nome della risorsa Amazon della chiave KMS AWS o l'alias della chiave che protegge i database
etcd
del servizio di gestione, ad esempioarn:aws:kms:us-west-2:111122223333:key/1234abcd-12ab-34cd-56ef-1234567890ab
.GCP_PROJECT_ID con l'ID progetto Google Cloud che ospita il tuo ambiente GKE Enterprise.
MANAGEMENT_KEY_PATH con la località della chiave dell'account di servizio di gestione Google Cloud.
HUB_KEY_PATH con la località della chiave dell'account di servizio di Google Cloud Connect.
NODE_KEY_PATH con la località della chiave dell'account di servizio del nodo GKE su AWS.
VPC_CIDR_BLOCK con l'intervallo totale di indirizzi IP CIDR per il VPC AWS creato da
anthos-gke
. Ad esempio,10.0.0.0/16
. Per ulteriori informazioni, consulta Nozioni di base su VPC e subnet nella documentazione di AWS.ZONE_1, ZONE_2 e ZONE_3 con le zone di disponibilità di AWS EC2 in cui vuoi creare nodi e piani di controllo. GKE su AWS crea subnet in queste zone. Quando utilizzi
anthos-gke
per generare la configurazione per un cluster utente, GKE su AWS crea piani di controllo e pool di nodi in queste zone di disponibilità, ad esempious-east-1a
.
Se vuoi utilizzareanthos-gke
per creare cluster utente in una sola zona, puoi rimuovere ZONE_2 e ZONE_3.PRIVATE_CIDR_BLOCK_1, PRIVATE_CIDR_BLOCK_2 e PRIVATE_CIDR_BLOCK_3, con il blocco CIDR per la subnet privata. I componenti di GKE su AWS come il servizio di gestione vengono eseguiti nella subnet privata. Questa subnet deve trovarsi all'interno dell'intervallo CIDR del VPC specificato in
vpcCIDRBlock
. È necessaria una subnet per ogni zona di disponibilità, ad esempio10.0.1.0/24
.PUBLIC_CIDR_BLOCK_1, PUBLIC_CIDR_BLOCK_2 e PUBLIC_CIDR_BLOCK_3, con i blocchi CIDR per la subnet pubblica. È necessaria una subnet per ogni zona di disponibilità. La subnet pubblica espone i servizi cluster come i bilanciatori del carico ai gruppi di sicurezza e agli intervalli di indirizzi specificati negli ACL di rete e nei gruppi di sicurezza AWS, ad esempio
10.0.100.0/24
.SSH_CIDR_BLOCK con il blocco CIDR che consente l'accesso SSH in entrata al bastion host, ad esempio
203.0.113.0/24
. Se vuoi consentire SSH da qualsiasi indirizzo IP, utilizza0.0.0.0/0
.(Facoltativo) PROXY_JSON_FILE con il percorso relativo del file di configurazione proxy. Se non utilizzi un proxy, elimina questa riga.
Esegui
anthos-gke aws management init
per generare un fileanthos-gke.status.yaml
con configurazione aggiuntiva. Il comandoinit
convalida anche l'oggettoAWSManagementService
nel fileanthos-gke.yaml
.anthos-gke aws management init
Esegui
anthos-gke aws management apply
per creare il servizio di gestione su AWS.anthos-gke aws management apply
Il completamento del comando
anthos-gke aws management apply
potrebbe richiedere fino a dieci minuti. Al termine del comando, il servizio di gestione viene eseguito su AWS.
Campi facoltativi
Il file anthos-gke.yaml
riportato sopra mostra un insieme tipico di campi richiesti dalla maggior parte dei clienti. La configurazione in anthos-gke.yaml
supporta anche
una serie di campi facoltativi. Questi includono:
- spec.bootstrapS3Bucket per specificare un bucket AWS S3 per GKE su dati di configurazione AWS
- spec.tags per taggare risorse AWS correlate al cluster
- spec.securityGroupIDs per assegnare altri ID gruppo di sicurezza al cluster di gestione
- spec.*Volume e i relativi campi secondari volumeType, iops e kmsKeyARN per ottimizzare i parametri di volume EBS
- spec.terraform.stateGCSBucket per specificare un bucket Google Cloud Service per i dati di configurazione di Terraform
Per ulteriori informazioni su tutti i campi supportati in anthos-gke.yaml
, consulta la documentazione di riferimento di AWS Management Service.
Connettiti al servizio di gestione
Quindi, utilizza anthos-gke
per connetterti e autenticarti al servizio GKE su AWS di gestione.
Quando crei un servizio di gestione utilizzando le impostazioni predefinite, il piano di controllo ha un indirizzo IP privato non accessibile dall'esterno del VPC AWS. Puoi accedere al servizio di gestione in uno dei tre modi seguenti:
- tramite il servizio AWS Direct Connect di Amazon
- tramite un host bastion che funge da proxy delle connessioni tra internet e GKE su subnet AWS
- tramite una VPN
Quando crei un servizio di gestione in un VPC dedicato, GKE su AWS crea automaticamente un bastion host in una subnet pubblica. Se ti connetti al servizio di gestione tramite una VPN o AWS Direct Connect, questo bastion host non è necessario. In caso contrario, per connetterti al servizio di gestione tramite il bastion host, segui questi passaggi:
Utilizza lo strumento
terraform
per generare lo script che apre un tunnel SSH al bastion host. Scegli la tua versione di Terraform, quindi esegui questi comandi:Terraform 0.12, 0.13
terraform output bastion_tunnel > bastion-tunnel.sh chmod 755 bastion-tunnel.sh
Terraform 0.14.3 o versioni successive
terraform output -raw bastion_tunnel > bastion-tunnel.sh chmod 755 bastion-tunnel.sh
Terraform crea lo script
bastion-tunnel.sh
che fa riferimento alla chiave SSH del bastion host in~/.ssh/anthos-gke
.Per aprire il tunnel, esegui lo script
bastion-tunnel.sh
. Il tunnel inoltra dalocalhost:8118
al bastion host.Per aprire un tunnel sul bastion host, esegui questo comando:
./bastion-tunnel.sh -N -4
I messaggi del tunnel SSH vengono visualizzati in questa finestra. Quando è tutto pronto per chiudere la connessione, interrompi il processo utilizzando Ctrl + C o chiudendo la finestra.
Apri un nuovo terminale e cambia la directory nella directory con la tua configurazione GKE su AWS.
Genera un
kubeconfig
per l'autenticazione. Usaanthos-gke
per aggiungere le credenziali alla configurazione archiviata in~/.kube/config
.anthos-gke aws management get-credentials
Verifica che sia possibile connettersi al servizio di gestione con
kubectl
.env HTTPS_PROXY=http://localhost:8118 \ kubectl cluster-info
L'output include l'URL del server API del servizio di gestione.
Passaggi successivi
- Crea un cluster utente.
- Utilizza un proxy con GKE su AWS.
- Modifica la configurazione di
kubectl
per connetterti a GKE su AWS con meno opzioni della riga di comando.