Puoi utilizzare ComputeClasses per eseguire i carichi di lavoro Google Kubernetes Engine (GKE) Autopilot nei cluster GKE Standard. Questa pagina descrive i metodi che puoi utilizzare per eseguire i carichi di lavoro in modalità Autopilot e ti aiuta a decidere quando eseguire un carico di lavoro in una modalità specifica.
Queste informazioni sono destinate alle seguenti persone:
- Architetti cloud che vogliono ottimizzare i costi operativi nelle organizzazioni.
- Amministratori della piattaforma che vogliono ridurre i costi della gestione manuale dell'infrastruttura.
- Site Reliability Engineer (SRE) che vogliono spostare la manutenzione, gli upgrade e lo scaling dell'infrastruttura su Google Cloud , quando possibile.
Dovresti già avere familiarità con i seguenti concetti:
Informazioni su GKE Autopilot
Autopilot è una modalità operativa in GKE in cui Google gestisce l'infrastruttura dei nodi, la scalabilità, la sicurezza e le funzionalità preconfigurate. La modalità Autopilot è ottimizzata per l'esecuzione della maggior parte dei carichi di lavoro di produzione in un ambiente che applica le impostazioni consigliate per sicurezza, affidabilità, prestazioni e scalabilità. Per decidere tra la modalità Autopilot e la modalità Standard in base ai tuoi requisiti, consulta Informazioni sulle modalità operative di GKE.
Puoi utilizzare la modalità Autopilot nei seguenti modi:
- Crea un cluster che utilizza la modalità Autopilot: Google gestisce l'intero cluster e applica le best practice per l'automazione, l'affidabilità, la sicurezza e i costi.
- Esegui carichi di lavoro in modalità Autopilot nei cluster standard: esegui il deployment di ComputeClass Autopilot e selezionale nei carichi di lavoro. Google gestisce i nodi creati da GKE per questi carichi di lavoro specifici. Controlli il cluster e puoi eseguire i tuoi node pool insieme ai nodi gestiti da GKE.
Informazioni sulla modalità Autopilot per ComputeClasses
Una ComputeClass è una risorsa personalizzata Kubernetes che definisce un elenco di configurazioni dei nodi, come tipi di macchine o impostazioni delle funzionalità. Puoi selezionare ComputeClass specifiche nelle specifiche dei carichi di lavoro Kubernetes. Quando un workload che seleziona una ComputeClass ha bisogno di un nuovo nodo, GKE tenta di eseguire il provisioning del nodo con una delle configurazioni dichiarate dalla ComputeClass. GKE prova ogni configurazione in ComputeClass in ordine e torna alla configurazione successiva se la creazione del nodo non va a buon fine. Per ulteriori informazioni, vedi Informazioni su ComputeClass personalizzate.
Per eseguire i carichi di lavoro Autopilot nei cluster GKE Standard, devi attivare la modalità Autopilot in una ComputeClass e selezionarla in carichi di lavoro specifici. Google gestisce tutti i nuovi nodi di cui GKE esegue il provisioning per questi workload, in modo simile a come gestisce i nodi nei cluster Autopilot. La maggior parte dei vantaggi e delle funzionalità di sicurezza della modalità Autopilot si applicano a questi carichi di lavoro e ai nodi host.
Le ComputeClass in modalità Autopilot offrono agli amministratori dei cluster una maggiore flessibilità per scegliere il livello di controllo che desiderano su specifici carichi di lavoro e infrastrutture nel cluster, ad esempio nei seguenti modi:
- Puoi consentire a GKE di gestire completamente carichi di lavoro specifici eseguendoli in modalità Autopilot.
- Mantieni il controllo completo dei workload e dell'infrastruttura che non utilizzano la modalità Autopilot, ad esempio i pool di nodi creati manualmente.
- Puoi impostare una ComputeClass Autopilot come impostazione predefinita per il cluster o lo spazio dei nomi, in modo che i workload vengano eseguiti in modalità Autopilot, a meno che non richiedano esplicitamente un'opzione diversa.
Queste opzioni consentono agli amministratori del cluster di decidere il livello e l'ambito con cui utilizzare Autopilot.
Le ComputeClass in modalità Autopilot offrono agli amministratori dei cluster una maggiore flessibilità per scegliere il livello di controllo che desiderano su specifici carichi di lavoro e infrastrutture nel cluster, ad esempio nei seguenti modi:
- Puoi consentire a GKE di gestire completamente carichi di lavoro specifici eseguendoli in modalità Autopilot.
- Mantieni il controllo completo dei workload e dell'infrastruttura che non utilizzano la modalità Autopilot, ad esempio i pool di nodi creati manualmente.
- Puoi impostare una ComputeClass Autopilot come impostazione predefinita per il cluster o lo spazio dei nomi, in modo che i workload vengano eseguiti in modalità Autopilot, a meno che non richiedano esplicitamente un'opzione diversa.
Queste opzioni consentono agli amministratori del cluster di decidere il livello e l'ambito con cui utilizzare Autopilot.
Vantaggi delle classi di computing Autopilot nei cluster Standard
L'esecuzione di alcuni workload in modalità Autopilot offre vantaggi come i seguenti:
- Riduzione dei costi di gestione dell'infrastruttura: Google esegue l'upgrade, la manutenzione, la configurazione e la messa a punto di nodi specifici per te.
- Utilizza il modello di prezzi Autopilot: i workload che utilizzano una classe di computing Autopilot vengono fatturati utilizzando il modello di prezzi Autopilot. Questo modello di prezzo include la fatturazione per pod per i carichi di lavoro che non richiedono hardware specifico. Per ulteriori informazioni, consulta la sezione Prezzi.
- Migliora la scalabilità e la postura di sicurezza: i workload Autopilot usufruiscono di vantaggi come l'accesso alla piattaforma di computing ottimizzata per i container, vincoli di sicurezza predefiniti migliorati e scalabilità automatica dei nodi in base alle richieste di risorse. I nodi per questi workload utilizzano funzionalità come gli upgrade automatici dei nodi e le riparazioni automatiche.
- Migliora l'affidabilità: l'accordo sul livello del servizio (SLA) di GKE include un obiettivo del livello del servizio (SLO) per l'uptime dei pod per Autopilot.
Molti di questi vantaggi sono forniti anche dai cluster Autopilot, che offrono anche un'esperienza più gestita rispetto ai cluster Standard e includono diversi vantaggi in termini di sicurezza, networking e gestione delle risorse. Per maggiori informazioni, consulta la panoramica di Autopilot.
Selezione dell'hardware in Autopilot ComputeClasses
In ComputeClass Autopilot, puoi selezionare hardware specifico per i tuoi nodi (come GPU o tipi di macchine) oppure puoi lasciare che GKE posizioni i pod su una piattaforma di calcolo generica e ottimizzata per i container. L'opzione per uso generico è consigliata per la maggior parte dei workload di produzione che non richiedono hardware specifico per funzionare correttamente.
La tabella seguente descrive queste opzioni di configurazione, come sceglierne una in un ComputeClass e come questa scelta influisce sul modello di fatturazione:
Requisito del workload | Configurazione consigliata di ComputeClass | Modello di fatturazione |
---|---|---|
Carichi di lavoro generici | Utilizza una ComputeClass Autopilot con la regola di priorità
Le
ComputeClass Autopilot integrate
disponibili per i cluster Standard utilizzano la
regola di priorità |
Modello di fatturazione basato su pod |
Workload che richiedono hardware specifico | Utilizza una ComputeClass che utilizza qualsiasi regola di configurazione hardware disponibile, ad esempio la regola |
Modello di fatturazione basato sui nodi |
Configurazione di Autopilot in ComputeClasses
Puoi utilizzare la modalità Autopilot in un cluster Standard utilizzando una ComputeClass Autopilot integrata fornita da GKE o abilitando Autopilot in qualsiasi ComputeClass personalizzata che crei. Le sezioni seguenti descrivono ciascuna opzione.
ComputeClass Autopilot integrate
GKE configura ComputeClass Autopilot specifiche per te. Puoi
selezionare queste classi Autopilot integrate
in qualsiasi cluster idoneo. Le ComputeClass Autopilot integrate nei cluster Standard utilizzano la regola di priorità podFamily
per eseguire i pod sulla piattaforma di calcolo ottimizzata per i container. Per maggiori informazioni, consulta
Informazioni su ComputeClass integrate in GKE.
Custom Autopilot ComputeClasses
Puoi abilitare Autopilot in qualsiasi ComputeClass personalizzata che gestisci.
Questa opzione è utile se i tuoi carichi di lavoro hanno requisiti hardware specifici.
Il campo autopilot
nella risorsa personalizzata ComputeClass
ti consente di attivare o
disattivare Autopilot in una ComputeClass specifica.
Per abilitare Autopilot in una ComputeClass esistente, devi eliminarla, aggiornare la configurazione e poi ricrearla nel cluster. Le modifiche vengono applicate a tutti i nuovi nodi creati da GKE per i carichi di lavoro che esegui il deployment dopo aver aggiornato ComputeClass Autopilot.
Per ulteriori informazioni sull'attivazione di Autopilot nelle classi di computing personalizzate, vedi Selezionare hardware specifico per i pod Autopilot.
Prezzi
I prezzi di GKE Autopilot si applicano ai nodi e ai carichi di lavoro che GKE crea per una ComputeClass Autopilot. La tabella seguente descrive il modello di fatturazione applicabile alle diverse configurazioni di Autopilot ComputeClass nei cluster in modalità Standard.
Modelli di fatturazione per diverse configurazioni di ComputeClass | |
---|---|
Modello di fatturazione basato su pod | Il modello di fatturazione basato sui pod si applica alle classi di computing Autopilot che utilizzano la regola di priorità podFamily anziché selezionare macchine o hardware specifici. Le
ComputeClass Autopilot integrate,
che utilizzano la regola podFamily , utilizzano il modello di fatturazione
basato sui pod. |
Modello di fatturazione basato sui nodi | Il modello di fatturazione basato sui nodi si applica alle classi di calcolo Autopilot che richiedono esplicitamente configurazioni di nodi specifiche, come istanze N2 o GPU. |
I prezzi di Autopilot si applicano solo ai workload e ai nodi che utilizzano una classe di computing Autopilot. Il cluster in modalità Standard e tutti gli altri node pool che esegui continuano a utilizzare i prezzi della modalità GKE Standard.
Impostazioni preconfigurate per i nodi gestiti da Autopilot
Prima di attivare la modalità Autopilot nelle ComputeClass, scopri cosa aspettarti dai nodi creati da GKE per eseguire i carichi di lavoro Autopilot. Google configura funzionalità e vincoli di sicurezza specifici nei nodi Autopilot. Di conseguenza, i workload che vengono sottoposti a deployment e funzionano correttamente nei nodi in modalità Standard potrebbero essere rifiutati dalla modalità Autopilot se non soddisfano i requisiti di sicurezza di Autopilot.
La tabella seguente descrive le configurazioni delle funzionalità che sostituiscono le impostazioni corrispondenti nel cluster Standard. Se una configurazione non è presente in questa tabella, i nodi Autopilot utilizzano l'impostazione del cluster Standard. Ad esempio, la federazione delle identità per i carichi di lavoro per GKE non è presente in questa tabella, il che significa che l'impostazione della federazione delle identità per i carichi di lavoro per GKE del cluster Standard si applica ai nodi Autopilot creati da GKE.
Funzionalità | Impostazione standard a livello di cluster | Impostazione dei nodi gestiti da Autopilot |
---|---|---|
Upgrade e manutenzione dei nodi |
Configurabile: |
Preconfigurato:
|
Scalabilità automatica | Configurabile: Profilo di scalabilità automatica | Preconfigurato: profilo di scalabilità automatica optimize-utilization |
Networking | VPC nativo o basato su route | Richiede un cluster nativo di VPC |
Sicurezza |
Configurabile:
|
Preconfigurato:
|
Sistema operativo del nodo |
Configurabile: |
Preconfigurato:
|
Disco di avvio del nodo |
Configurabile: |
Configurabile:
|
Metadati dei nodi |
|
|
Richieste di risorse per i carichi di lavoro Autopilot
Affinché i workload Autopilot vengano eseguiti in modo efficiente, GKE applica determinati valori minimi e massimi per le richieste di CPU, memoria e spazio di archiviazione temporaneo nei pod. GKE applica anche le richieste predefinite ai pod che non richiedono esplicitamente una di queste risorse. I valori specifici per i requisiti di risorse minimi, massimi e predefiniti nei workload GKE Autopilot variano in base al tipo di hardware utilizzato dai pod.
Per lo spazio di archiviazione temporaneo, il valore predefinito se non richiedi lo spazio di archiviazione temporaneo è lo stesso per tutte le ComputeClass e le selezioni hardware. Per ulteriori informazioni, consulta Richieste di risorse predefinite.
La seguente tabella fornisce i link ai requisiti di CPU e memoria per le richieste di pod, a seconda del tipo di hardware:
Tipo di risorsa | Richieste minime e massime | Richieste predefinite |
---|---|---|
Pod per uso genericopodFamily regola di priorità |
Vedi la riga "Generico" nella tabella Valori minimi e massimi per ComputeClass. | Vedi la riga "Generico" nella tabella Richieste predefinite per ComputeClasses. |
GPU e TPU | Dipende dal tipo e dalla quantità di acceleratore hardware. Per ulteriori informazioni, vedi Valori minimi e massimi per ComputeClass dell'acceleratore. | Dipende dal tipo e dalla quantità di acceleratore hardware. Per saperne di più, consulta Richieste predefinite per gli acceleratori. |
Tipi di macchine e famiglie di macchine Compute Engine specifici |
|
Per qualsiasi tipo di macchina o famiglia di macchine Compute Engine, le richieste predefinite nella riga "Per uso generico" della tabella Richieste predefinite per ComputeClasses. |
Passaggi successivi
- Esegui il deployment dei carichi di lavoro in modalità Autopilot nei cluster Standard
- Informazioni sulle ComputeClass personalizzate