In questo insieme di tutorial, alcune delle considerazioni di pianificazione sono semplificate in modo da poterti concentrare sull'apprendimento delle funzionalità e dei servizi chiave di Google Kubernetes Engine (GKE). Prima di iniziare a creare il tuo ambiente Google Kubernetes Engine simile a quello descritto in questo insieme di tutorial, tieni presente alcune considerazioni di pianificazione aggiuntive. Queste considerazioni includono il livello di gestione del cluster, la rete e i tipi di disponibilità.
Networking
I cluster GKE richiedono un'attenta pianificazione degli indirizzi IP. Le opzioni di networking che scegli influiscono sull'architettura dei tuoi cluster GKE. Alcune di queste opzioni non possono essere modificate dopo la configurazione senza ricreare il cluster.
In questo insieme di tutorial, utilizzerai i cluster in modalità Autopilot che utilizzano sempre la rete in modalità VPC nativa. I cluster nativi VPC utilizzano intervalli di indirizzi IP alias sui nodi GKE e sono obbligatori per la creazione di cluster su VPC condivisi. I cluster nativi VPC si espandono più facilmente dei cluster basati su route senza consumare route diGoogle Cloud e sono quindi meno soggetti al raggiungimento dei limiti di routing.
Prima di creare il tuo ambiente GKE ed eseguire il deployment dei carichi di lavoro, consulta le seguenti indicazioni sulla rete:
- Panoramica della rete GKE
- Best practice per il networking di GKE
- Pianificare gli indirizzi IP per GKE
Modalità cluster
In questo insieme di tutorial viene creato un cluster GKE regionale che utilizza la modalità Autopilot. I cluster Autopilot sono preconfigurati con una configurazione ottimizzata pronta per i carichi di lavoro di produzione. In alternativa, puoi utilizzare i cluster in modalità Standard per una maggiore flessibilità di configurazione dell'infrastruttura di base.
Per una panoramica più completa, consulta i documenti di pianificazione che iniziano con le scelte di configurazione del cluster.
Spazi dei nomi
Gli spazi dei nomi ti consentono di organizzare le applicazioni e isolare i componenti tra loro. Ogni spazio dei nomi ha il proprio insieme di risorse, come pod, servizi e deployment. Ad esempio, puoi creare uno spazio dei nomi per tutti i servizi frontend e uno per i servizi di backend. Questo raggruppamento semplifica la gestione dei servizi e il controllo dell'accesso.
In questo insieme di tutorial, esegui il deployment dei pod e dei servizi per l'applicazione di esempio Cymbal Bank in un unico spazio dei nomi. Questo approccio riduce la complessità del deployment, ma non consente di utilizzare gli spazi dei nomi per assegnare risorse a team e utenti diversi, come potresti fare in un ambiente di produzione. Per un esempio più sicuro e pronto per la produzione dell'applicazione di esempio Cymbal Bank che utilizza più spazi dei nomi, consulta Architettura dell'applicazione Cymbal Bank.
Budget di interruzione dei pod
I criteri di budget per le interruzioni dei pod (PDB) contribuiscono a garantire il rendimento delle app impedendo che i pod si arrestino contemporaneamente quando apporti una modifica al sistema e limitando il numero di pod non disponibili contemporaneamente in un'applicazione replicata.
In questo insieme di tutorial non configuri e utilizzi i PDB. Al termine del tutorial per simulare l'errore, i servizi e i nodi dovrebbero rispondere come previsto. Quando esegui il deployment dei tuoi carichi di lavoro, i PDB sui nodi potrebbero bloccare lo svuotamento dei nodi.
Se utilizzi PDB, controlla la configurazione prima di provare a mettere in isolamento e a svuotare i nodi. Se i nodi non riescono a eseguire lo svuotamento, potresti riscontrare problemi con gli eventi di manutenzione pianificata.
Passaggi successivi
Per iniziare, completa il primo tutorial per eseguire il deployment di un singolo cluster GKE che esegue un'applicazione basata su microservizi.