Percorso di apprendimento: applicazioni su larga scala - Considerazioni sulla produzione


In questa serie di tutorial, alcune considerazioni sulla pianificazione sono semplificate così potrai concentrarti sull'apprendimento delle funzionalità chiave di Google Kubernetes Engine (GKE) i servizi di machine learning. Prima di iniziare a creare il tuo ambiente Google Kubernetes Engine simile a quello descritto in questo insieme di tutorial, tieni presente alcune considerazioni di pianificazione aggiuntive. Queste considerazioni includono livello di gestione dei cluster, networking e tipi di disponibilità.

Networking

I cluster GKE richiedono un'attenta pianificazione degli indirizzi IP. Il networking le opzioni scelte influiscono sull'architettura di GKE cluster. Alcune di queste opzioni non possono essere modificate dopo la configurazione senza ricreare il cluster.

In questa serie di tutorial, utilizzerai i cluster in modalità Autopilot che utilizza il networking in modalità VPC nativa. Nativo di VPC i cluster utilizzano intervalli di indirizzi IP alias sui nodi GKE e sono necessaria per creare cluster sui VPC condivisi. I cluster nativi VPC si espandono più facilmente dei cluster basati su route senza consumare route di Google Cloud e sono quindi meno soggetti al raggiungimento dei limiti di routing.

Prima di creare il tuo ambiente GKE ed eseguire il deployment dei carichi di lavoro, consulta le seguenti indicazioni sul networking:

Modalità cluster

In questa serie di tutorial creerai un cluster GKE a livello di regione utilizza la modalità Autopilot. I cluster Autopilot sono preconfigurati con una configurazione ottimizzata pronta per i carichi di lavoro di produzione. In alternativa, puoi utilizzare i cluster in modalità standard per una maggiore flessibilità di configurazione dell'infrastruttura di base.

Per una panoramica più completa, consulta i documenti di pianificazione che iniziano con il scelte di configurazione del cluster.

Spazi dei nomi

consentono di organizzare le applicazioni e isolare i componenti e l'altro. Ogni spazio dei nomi ha il proprio set di risorse, come pod, servizi deployment. Ad esempio, puoi creare uno spazio dei nomi per tutti i servizi frontend e uno per i servizi di backend. Questo raggruppamento consente gestire i tuoi servizi e controllarne l'accesso.

In questo insieme di tutorial, esegui il deployment dei pod e dei servizi per l'applicazione di esempio Cymbal Bank in un unico spazio dei nomi. Questo approccio riduce la complessità del deployment, ma non consente di utilizzare gli spazi dei nomi per assegnare risorse a team e utenti diversi, come potresti fare in un ambiente di produzione. Per un esempio più sicuro e pronto per la produzione dell'applicazione di esempio Cymbal Bank che utilizza più spazi dei nomi, consulta Architettura dell'applicazione Cymbal Bank.

Budget per le interruzioni dei pod

I criteri di budget per le interruzioni dei pod (PDB) contribuiscono a garantire il rendimento delle app impedendo che i pod si arrestino contemporaneamente quando apporti una modifica al sistema e limitando il numero di pod non disponibili contemporaneamente in un'applicazione replicata.

In questo insieme di tutorial non configuri e utilizzi i PDB. Al termine del tutorial per simulare l'errore, i servizi e i nodi dovrebbero rispondere come previsto. Quando esegui il deployment dei tuoi carichi di lavoro, i PDB sui nodi potrebbero bloccare lo svuotamento dei nodi.

Se utilizzi PDB, controlla la configurazione prima di provare a mettere in isolamento e a svuotare i nodi. Se i nodi non possono svuotare correttamente, potresti avere problemi con di manutenzione programmata.

Passaggi successivi

Per iniziare, completa il primo tutorial per il deployment di un singolo cluster GKE che esegue un'applicazione basata su microservizi.