Percorso di apprendimento: applicazioni su larga scala - Considerazioni sulla produzione

In questa serie di tutorial, alcune considerazioni sulla pianificazione sono semplificate così potrai concentrarti sull'apprendimento delle funzionalità chiave della versione Google Kubernetes Engine (GKE) Enterprise i servizi di machine learning. Prima di iniziare a creare la tua versione di Google Kubernetes Engine (GKE) Enterprise simile a quello descritto in questo insieme di tutorial, ci sono alcune considerazioni aggiuntive sulla pianificazione da tenere a mente. Queste considerazioni includono il livello di gestione del cluster, il networking e i tipi di disponibilità.

Networking

I cluster GKE richiedono un'attenta pianificazione degli indirizzi IP. Il networking le opzioni scelte influiscono sull'architettura di GKE cluster. Alcune di queste opzioni non possono essere modificate dopo la configurazione senza ricreare il cluster.

In questa serie di tutorial, utilizzerai i cluster in modalità Autopilot che per utilizzare il networking in modalità nativa VPC. Nativo di VPC i cluster utilizzano intervalli di indirizzi IP alias sui nodi GKE e sono necessaria per creare cluster sui VPC condivisi. Nativo di VPC scalare più facilmente rispetto ai cluster basati su route senza le route di Google Cloud e quindi sono meno suscettibili di raggiungere i percorsi limiti.

Prima di creare il tuo ambiente GKE Enterprise ed eseguirne il deployment carichi di lavoro, rivedi le seguenti indicazioni sul networking:

Modalità cluster

In questo insieme di tutorial creerai un'istanza GKE Enterprise a livello di regione che utilizza la modalità Autopilot. I cluster Autopilot preconfigurati con una configurazione del cluster ottimizzata, pronta per carichi di lavoro di produzione. In alternativa, puoi utilizzare i cluster in modalità Standard per una flessibilità di configurazione più avanzata sull'infrastruttura sottostante.

Per una panoramica più completa, consulta i documenti di pianificazione inizia con scelte di configurazione del cluster.

Spazi dei nomi

consentono di organizzare le applicazioni e isolare i componenti e l'altro. Ogni spazio dei nomi ha il proprio set di risorse, come pod, servizi deployment. Ad esempio, puoi creare uno spazio dei nomi per tutto il frontend e uno spazio dei nomi per i servizi di backend. Questo raggruppamento consente gestire i tuoi servizi e controllarne l'accesso.

In questo insieme di tutorial, eseguirai il deployment dei pod e dei servizi per Cymbal Bank di esempio in un singolo spazio dei nomi. Questo approccio riduce il deployment ma non consente di utilizzare gli spazi dei nomi per assegnare risorse e gli utenti, come in un ambiente di produzione. Inoltre, per sfruttare la gestione dei team di GKE Enterprise che ti aiutano a strutturare i parchi risorse, gli spazi dei nomi e le autorizzazioni consentono ai team di agire in modo indipendente come "tenant" separati sulla tua flotta con i propri Google Cloud. Per un esempio di Cymbal Bank più sicuro e pronto per la produzione di esempio che utilizza più spazi dei nomi, consulta Architettura delle applicazioni di Cymbal Bank.

Budget per le interruzioni dei pod

I criteri relativi al budget di interruzione dei pod (PDB) aiutano a garantire le prestazioni dell'app impedendo I pod si arrestano contemporaneamente quando apporti una modifica al sistema e limiti il numero di pod contemporaneamente non disponibili in un'applicazione replicata.

In questa serie di tutorial, non devi configurare né utilizzare i PDB. Al termine del tutorial per simulare l'errore, i servizi e i nodi dovrebbero rispondere previsto. Quando esegui il deployment dei tuoi carichi di lavoro, i PDB sui nodi potrebbero bloccarli svuotando la rete.

Se utilizzi i PDB, rivedi la configurazione prima di tentare di contrassegnare come non pianificabile e svuotare nodi. Se i nodi non possono svuotare correttamente, potresti avere problemi con di manutenzione programmata.

Passaggi successivi

Per iniziare, completa la il primo tutorial sul deployment di un singolo cluster GKE che esegue un'applicazione basata su microservizi.