Percorso di apprendimento: scalabilità delle applicazioni - Considerazioni sulla produzione
In questa serie di tutorial, alcune considerazioni sulla pianificazione sono semplificate così potrai concentrarti sull'apprendimento delle funzionalità chiave della versione Google Kubernetes Engine (GKE) Enterprise i servizi di machine learning. Prima di iniziare a creare la tua versione di Google Kubernetes Engine (GKE) Enterprise simile a quello descritto in questo insieme di tutorial, ci sono alcune considerazioni aggiuntive sulla pianificazione da tenere a mente. Queste considerazioni includono il livello di gestione del cluster, la rete e i tipi di disponibilità.
Networking
I cluster GKE richiedono un'attenta pianificazione degli indirizzi IP. Il networking le opzioni scelte influiscono sull'architettura di GKE cluster. Alcune di queste opzioni non possono essere modificate dopo la configurazione senza ricreare il cluster.
In questa serie di tutorial, utilizzerai i cluster in modalità Autopilot che utilizza il networking in modalità VPC nativa. I cluster nativi VPC utilizzano intervalli di indirizzi IP alias sui nodi GKE e sono obbligatori per la creazione di cluster su VPC condivisi. Nativo di VPC scalare più facilmente rispetto ai cluster basati su route senza le route di Google Cloud e quindi sono meno suscettibili di raggiungere i percorsi limiti.
Prima di creare il tuo ambiente GKE Enterprise ed eseguirne il deployment carichi di lavoro, rivedi le seguenti indicazioni sul networking:
- Panoramica della rete GKE
- Best practice per il networking di GKE
- Pianificare gli indirizzi IP per GKE
Modalità cluster
In questo insieme di tutorial creerai un'istanza GKE Enterprise a livello di regione che utilizza la modalità Autopilot. I cluster Autopilot preconfigurati con una configurazione del cluster ottimizzata, pronta per carichi di lavoro di produzione. In alternativa, puoi utilizzare i cluster in modalità Standard per una flessibilità di configurazione più avanzata sull'infrastruttura sottostante.
Per una panoramica più completa, consulta i documenti di pianificazione che inizia con le scelte di configurazione del cluster.
Spazi dei nomi
Gli spazi dei nomi ti consentono di organizzare le applicazioni e isolare i componenti tra loro. Ogni spazio dei nomi ha il proprio insieme di risorse, come pod, servizi e deployment. Ad esempio, puoi creare uno spazio dei nomi per tutto il frontend e uno spazio dei nomi per i servizi di backend. Questo raggruppamento consente gestire i tuoi servizi e controllarne l'accesso.
In questo insieme di tutorial, eseguirai il deployment dei pod e dei servizi per Cymbal Bank di esempio in un unico spazio dei nomi. Questo approccio riduce la complessità del deployment, ma non consente di utilizzare gli spazi dei nomi per assegnare risorse a team e utenti diversi, come potresti fare in un ambiente di produzione. Inoltre, non consente di sfruttare le funzionalità di gestione dei team di GKE Enterprise, che ti aiutano a strutturare i parchi risorse, gli spazi dei nomi e le autorizzazioni per consentire ai team di agire in modo indipendente come "tenant" separati nel tuo parco risorse con le proprie risorse. Per un esempio di Cymbal Bank più sicuro e pronto per la produzione di esempio che utilizza più spazi dei nomi, consulta Architettura delle applicazioni di Cymbal Bank.
Budget per le interruzioni dei pod
I criteri relativi al budget di interruzione dei pod (PDB) aiutano a garantire le prestazioni dell'app impedendo I pod si arrestano contemporaneamente quando apporti una modifica al sistema e limiti il numero di pod contemporaneamente non disponibili in un'applicazione replicata.
In questa serie di tutorial, non devi configurare né utilizzare i PDB. Al termine il tutorial per simulare l'errore, i servizi e i nodi dovrebbero rispondere previsto. Quando esegui il deployment dei tuoi carichi di lavoro, i PDB sui nodi potrebbero bloccare lo svuotamento dei nodi.
Se utilizzi PDB, controlla la configurazione prima di provare a mettere in isolamento e a svuotare i nodi. Se i nodi non possono svuotare correttamente, potresti avere problemi con di manutenzione programmata.
Passaggi successivi
Per iniziare, completa la il primo tutorial sul deployment di un singolo cluster GKE che esegue un'applicazione basata su microservizi.