Percorso di apprendimento: Scalabilità delle applicazioni - Considerazioni sulla produzione

In questa serie di tutorial, alcune considerazioni sulla pianificazione sono semplificate in modo che tu possa concentrarti sull'apprendimento delle funzionalità e dei servizi chiave della versione Google Kubernetes Engine (GKE) Enterprise. Prima di iniziare a creare il tuo ambiente Google Kubernetes Engine (GKE) Enterprise Edition simile a quello descritto in questo insieme di tutorial, devi tenere a mente alcune considerazioni di pianificazione aggiuntive. Queste considerazioni includono il livello di gestione dei cluster, il networking e i tipi di disponibilità.

Networking

I cluster GKE richiedono un'attenta pianificazione degli indirizzi IP. Le opzioni di networking che scegli influiscono sull'architettura dei tuoi cluster GKE. Alcune di queste opzioni non possono essere modificate dopo essere state configurate senza ricreare il cluster.

In questa serie di tutorial utilizzerai cluster in modalità Autopilot che utilizzano sempre il networking in modalità nativa VPC. I cluster nativi di VPC utilizzano intervalli di indirizzi IP alias sui nodi GKE e sono necessari per creare cluster su VPC condivisi. I cluster nativi di VPC scalano più facilmente rispetto ai cluster basati su route senza utilizzare route di Google Cloud, quindi sono meno soggetti al raggiungimento dei limiti di routing.

Prima di creare il tuo ambiente GKE Enterprise ed eseguire il deployment dei carichi di lavoro, rivedi le seguenti indicazioni di networking:

Modalità cluster

In questo insieme di tutorial, creerai un cluster GKE Enterprise a livello di regione che utilizza la modalità Autopilot. I cluster Autopilot sono preconfigurati con una configurazione ottimizzata, pronta per i carichi di lavoro di produzione. In alternativa, puoi usare i cluster in modalità Standard per una flessibilità di configurazione più avanzata sull'infrastruttura sottostante.

Per una panoramica più completa, consulta i documenti di pianificazione che iniziano con le scelte di configurazione del cluster.

Spazi dei nomi

Gli spazi dei nomi consentono di organizzare le applicazioni e isolare i componenti l'uno dall'altro. Ogni spazio dei nomi ha il proprio insieme di risorse, come pod, servizi e deployment. Ad esempio, puoi creare uno spazio dei nomi per tutti i servizi di frontend e uno spazio dei nomi per i tuoi servizi di backend. Questo raggruppamento semplifica la gestione dei servizi e il controllo dell'accesso.

In questa serie di tutorial, eseguirai il deployment dei pod e dei servizi per l'applicazione di esempio Cymbal Bank in un unico spazio dei nomi. Questo approccio riduce la complessità del deployment, ma non consente di utilizzare gli spazi dei nomi per assegnare risorse a team e utenti diversi, come si potrebbe fare in un ambiente di produzione. Inoltre, non ti consente di sfruttare le funzionalità di gestione dei team di GKE Enterprise, che ti consentono di strutturare i parchi risorse, gli spazi dei nomi e le autorizzazioni per consentire ai team di agire in modo indipendente come "tenant" separati nel parco risorse con le proprie risorse. Per un esempio più sicuro e pronto per la produzione dell'applicazione di esempio di Cymbal Bank che utilizza più spazi dei nomi, consulta Architettura dell'applicazione di Cymbal Bank.

Budget per l'interruzione dei pod

I criteri del budget per l'interruzione dei pod (PDB) aiutano a garantire le prestazioni dell'app impedendo l'arresto dei pod contemporaneamente quando apporti una modifica al sistema e limitando il numero di pod contemporaneamente non disponibili in un'applicazione replicata.

In questa serie di tutorial non configuri e non utilizzi i PDB. Quando completi il tutorial per simulare l'errore, tutti i servizi e i nodi dovrebbero rispondere come previsto. Quando esegui il deployment dei tuoi carichi di lavoro, i PDB sui nodi potrebbero bloccare il svuotamento dei nodi.

Se utilizzi i PDB, rivedi la configurazione prima di provare a pianificare e svuotare i nodi. Se i nodi non vengono svuotati correttamente, potrebbero verificarsi problemi con gli eventi di manutenzione pianificata.

Passaggi successivi

Per iniziare, completa il primo tutorial su un singolo cluster GKE che esegue un'applicazione basata su microservizi.