Guida rapida

Questo argomento mostra come creare un carico di lavoro su GKE su AWS ed esporlo internamente al cluster.

Prima di iniziare

Prima di iniziare a utilizzare GKE su AWS, assicurati di aver eseguito le seguenti attività:

  • Installa un servizio di gestione.
  • Crea un cluster utente.
  • Dalla directory anthos-aws, utilizza anthos-gke per cambiare contesto al cluster utente.
    cd anthos-aws
    env HTTPS_PROXY=http://localhost:8118 \
      anthos-gke aws clusters get-credentials CLUSTER_NAME
    Sostituisci CLUSTER_NAME con il nome del tuo cluster utente.

Puoi eseguire questi passaggi con kubectl o con la console Google Cloud se hai eseguito l'autenticazione con Connect. Se utilizzi la console Google Cloud, vai ad Avviare un deployment NGINX.

Per connetterti alle tue risorse GKE su AWS, segui questi passaggi. Seleziona se disponi già di un VPC AWS (o di una connessione diretta al tuo VPC) o hai creato un VPC dedicato durante la creazione del servizio di gestione.

VPC esistente

Se hai una connessione diretta o VPN a un VPC esistente, ometti la riga env HTTP_PROXY=http://localhost:8118 dai comandi in questo argomento.

VPC dedicato

Quando crei un servizio di gestione in un VPC dedicato, GKE su AWS include un host bastion in una subnet pubblica.

Per connetterti al servizio di gestione, segui questi passaggi:

  1. Passa alla directory con la tua configurazione GKE su AWS. Hai creato questa directory durante l'installazione del servizio di gestione.

    cd anthos-aws

  2. Per aprire il tunnel, esegui lo script bastion-tunnel.sh. Il tunnel rimanda a localhost:8118.

    Per aprire un tunnel sul bastion host, esegui questo comando:

    ./bastion-tunnel.sh -N
    

    I messaggi del tunnel SSH vengono visualizzati in questa finestra. Quando è tutto pronto per chiudere la connessione, interrompi il processo utilizzando Ctrl+C o chiudendo la finestra.

  3. Apri un nuovo terminale e passa alla directory anthos-aws.

    cd anthos-aws
  4. Verifica di poter connetterti al cluster con kubectl.

    env HTTPS_PROXY=http://localhost:8118 \
    kubectl cluster-info
    

    L'output include l'URL del server API del servizio di gestione.

avvia un deployment NGINX

In questa sezione, creerai un deployment del server web NGINX denominato nginx-1.

kubectl

  1. Usa kubectl create per creare il deployment.

    env HTTPS_PROXY=http://localhost:8118 \
    kubectl create deployment --image nginx nginx-1
    
  2. Usa kubectl per ottenere lo stato del deployment. Osserva il NAME del pod.

    env HTTPS_PROXY=http://localhost:8118 \
    kubectl get deployment
    

Console

Per avviare un deployment NGINX con la console Google Cloud, segui questi passaggi:

  1. Consulta il menu Carichi di lavoro GKE nella console Google Cloud.

    Vai al menu Carichi di lavoro

  2. Fai clic su Esegui il deployment.

  3. In Modifica contenitore, seleziona Immagine container esistente per scegliere un'immagine container disponibile da Container Registry. Compila il campo Percorso immagine con l'immagine container che vuoi utilizzare e la sua versione. Per questa guida rapida, utilizza nginx:latest.

  4. Fai clic su Fine, poi su Continua. Viene visualizzata la schermata Configurazione.

  5. Puoi modificare il Nome applicazione e lo Spazio dei nomi Kubernetes del tuo deployment. Per questa guida rapida, puoi utilizzare il nome dell'applicazione nginx-1 e lo spazio dei nomi default

  6. Dal menu a discesa Cluster, seleziona il cluster utente. Per impostazione predefinita, il tuo primo cluster utente è denominato cluster-0.

  7. Fai clic su Esegui il deployment. GKE su AWS avvia il tuo deployment NGINX. Viene visualizzata la schermata Dettagli deployment.

Esposizione dei pod

Questa sezione mostra come effettuare una delle seguenti operazioni:

  • Esponi il deployment internamente nel cluster e verifica che sia disponibile con kubectl port-forward.

  • Esponi il deployment dalla console Google Cloud agli indirizzi consentiti dal gruppo di sicurezza del tuo pool di nodi.

kubectl

  1. Esponi la porta 80 del deployment nel cluster con kubectl expose.

    env HTTPS_PROXY=http://localhost:8118 \
    kubectl expose deployment nginx-1 --port=80
    

    Il deployment è ora accessibile dall'interno del cluster.

  2. Inoltra la porta 80 sul deployment alla porta 8080 sulla tua macchina locale con kubectl port-forward.

    env HTTPS_PROXY=http://localhost:8118 \
    kubectl port-forward deployment/nginx-1 8080:80
    
  3. Connettiti a http://localhost:8080 con curl o con il browser web. Viene visualizzata la pagina web NGINX predefinita.

    curl http://localhost:8080
    

Console

  1. Consulta il menu Carichi di lavoro GKE nella console Google Cloud.

    Vai al menu Carichi di lavoro

  2. Nella schermata Dettagli deployment, fai clic su Esponi. Viene visualizzata la schermata Esponi un deployment.

  3. Nella sezione Mappatura delle porte, lascia la porta predefinita (80) e fai clic su Fine.

  4. In Tipo di servizio, seleziona Bilanciatore del carico. Per ulteriori informazioni su altre opzioni, consulta Servizi di pubblicazione (ServiceTypes) nella documentazione di Kubernetes.

  5. Fai clic su Esponi. Viene visualizzata la schermata Dettagli servizio. GKE su AWS crea un bilanciatore del carico elastico classico per il servizio.

  6. Fai clic sul link Endpoint esterni. Se il bilanciatore del carico è pronto, viene visualizzata la pagina web NGINX predefinita.

Visualizza il tuo deployment nella console Google Cloud

Se il cluster è connesso alla console Google Cloud, puoi visualizzare il tuo deployment nella pagina Carichi di lavoro GKE. Per visualizzare il carico di lavoro, segui questi passaggi:

  1. Nel browser, visita la pagina Carichi di lavoro di Google Kubernetes Engine.

    Visita la pagina Carichi di lavoro di Google Kubernetes Engine

    Viene visualizzato l'elenco dei carichi di lavoro.

  2. Fai clic sul nome del carico di lavoro, nginx-1. Viene visualizzata la schermata Dettagli deployment.

  3. In questa schermata puoi vedere i dettagli sul tuo deployment, visualizzare e modificare la configurazione YAML e eseguire altre azioni Kubernetes.

Per ulteriori informazioni sulle opzioni disponibili in questa pagina, consulta Deployment di un'applicazione stateless nella documentazione di GKE.

esegui la pulizia

Per eliminare il deployment NGINX, usa kubectl delete o la console Google Cloud.

kubectl

env HTTPS_PROXY=http://localhost:8118 \
kubectl delete service nginx-1 &&\
kubectl delete deployment nginx-1

Console

  1. Visita il menu Pagina Servizi e Ingress nella console Google Cloud.

    Visita la pagina Services and Ingress

  2. Individua il servizio NGINX e fai clic su Nome. Per impostazione predefinita, il nome è nginx-1-service. Viene visualizzata la schermata Dettagli servizio.

  3. Fai clic su Elimina e conferma che vuoi eliminare il servizio. GKE su AWS elimina il bilanciatore del carico.

  4. Visita la pagina Carichi di lavoro di Google Kubernetes Engine.

    Visita la pagina Carichi di lavoro di Google Kubernetes Engine

    Viene visualizzato l'elenco dei carichi di lavoro.

  5. Fai clic sul nome del carico di lavoro, nginx-1. Viene visualizzata la schermata Dettagli deployment.

  6. Fai clic su Elimina e conferma che vuoi eliminare il deployment. GKE su AWS elimina il deployment.

Che cosa succede dopo?

Crea un bilanciatore del carico interno o esterno utilizzando uno dei seguenti servizi:

Puoi utilizzare altri tipi di carichi di lavoro Kubernetes con GKE su AWS. Consulta la documentazione di GKE per ulteriori informazioni sul deployment dei carichi di lavoro.