Il servizio Kubernetes più scalabile e completamente automatizzato
Imposta i container su Autopilot, eliminando la necessità di gestire nodi o capacità e riducendo i costi dei cluster, con una competenza minima o nulla delle operazioni del cluster.
La modalità Autopilot di GKE è una piattaforma Kubernetes completamente gestita e senza intervento manuale, che gestisce l'infrastruttura di calcolo sottostante del cluster (senza necessità di configurazione o monitoraggio da parte tua), garantendo comunque un'esperienza Kubernetes completa. Inoltre, con la fatturazione per pod, Autopilot ti garantisce che pagherai solo per i pod in esecuzione, non per i componenti del sistema, l'overhead del sistema operativo o la capacità non allocata per un massimo dell'85% di risparmio grazie all'efficienza operativa e delle risorse.
I cluster connessi privatamente in rete in GKE possono essere limitati a un endpoint privato o a un endpoint pubblico accessibile solo da determinati intervalli di indirizzi. GKE Sandbox per la modalità operativa Standard fornisce un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE, per una maggiore sicurezza dei carichi di lavoro.
I cluster GKE supportano intrinsecamente i criteri di rete Kubernetes per limitare il traffico con regole firewall a livello di pod.
Accedi a soluzioni containerizzate di livello enterprise con modelli di deployment preimpostati, che prevedono portabilità, licenze semplificate e fatturazione consolidata. Non si tratta solo di immagini container, ma di applicazioni open source, realizzate da Google e commerciali che aumentano la produttività degli sviluppatori. Fai clic per eseguire il deployment on-premise o in cloud di terze parti da Google Cloud Marketplace.
GKE implementa supporto completo per le API Kubernetes, scalabilità automatica a quattro vie, canali di rilascio e ambienti multicluster e scala fino a 15.000 nodi.
La scalabilità automatica orizzontale dei pod può essere basata sull'utilizzo della CPU o su metriche personalizzate. Il funzionamento della scalabilità automatica dei cluster è per pool di nodi, mentre la scalabilità automatica pod verticale analizza continuamente l'utilizzo di CPU e memoria dei pod, regolando automaticamente le richieste di CPU e memoria.
Strumenti automatici per migrare facilmente i carichi di lavoro
Migrate to Containers semplifica e velocizza la modernizzazione delle applicazioni tradizionali consentendone il trasferimento dalle macchine virtuali ai container. Il nostro esclusivo approccio automatizzato consente di estrarre gli elementi critici dell'applicazione dalla VM, in modo da poterli facilmente inserire nei container all'interno di cluster GKE o Anthos senza i livelli VM (come il sistema operativo guest), che diventano inutili grazie ai container.
Questo prodotto funziona anche con GKE Autopilot.
Backup per GKE è un modo semplice per i clienti che eseguono carichi di lavoro stateful su GKE per proteggere, gestire e ripristinare le applicazioni e i dati containerizzati.
Gestione di identità e accessi
Controlla l'accesso nel cluster con i tuoi Account Google e le autorizzazioni relative ai ruoli.
Networking ibrido
Riserva un intervallo di indirizzi IP per il tuo cluster, consentendo agli IP del cluster di coesistere con gli IP delle reti private tramite Google Cloud VPN.
Sicurezza e conformità
GKE è supportato dal team Google dedicato alla sicurezza, composto da oltre 750 esperti del settore, ed è conforme sia alle normative HIPAA che allo standard PCI DSS.
Logging e monitoraggio integrati
Abilita Cloud Logging e Cloud Monitoring tramite la semplice configurazione di caselle di controllo per ottenere agevolmente insight sull'esecuzione dell'applicazione.
Opzioni relative al cluster
Scegli cluster personalizzati per la disponibilità, la stabilità della versione, l'isolamento e i requisiti di traffico tra i pod dei tuoi carichi di lavoro.
Scalabilità automatica
Fai lo scale up e lo scale down in modo automatico del deployment delle applicazioni, in base all'utilizzo delle risorse (CPU, memoria).
Upgrade automatico
Mantieni automaticamente aggiornato il cluster con l'ultima release di Kubernetes.
Riparazione automatica
Quando è abilitata la riparazione automatica, se un nodo non supera il controllo di integrità, GKE avvia un processo per la sua riparazione.
Limiti delle risorse
Kubernetes consente di specificare la quantità di CPU e memoria (RAM) di cui ha bisogno ciascun container, che verrà poi utilizzata per organizzare al meglio i carichi di lavoro all'interno del cluster.
Isolamento del container
Utilizza GKE Sandbox per ottenere un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE e migliorare la sicurezza dei carichi di lavoro.
Supporto per le applicazioni stateful
GKE non è stato progettato esclusivamente per le app a 12 fattori. Puoi collegare l'archiviazione permanente ai container e persino ospitare database completi.
Supporto per le immagini Docker
GKE supporta il formato di container Docker standard.
Sistema operativo creato per i container
GKE viene eseguito in Container-Optimized OS, un sistema operativo con protezione avanzata creato e gestito da Google.
Container Registry privato
L'integrazione con Google Container Registry semplifica l'archiviazione delle immagini Docker private e il relativo accesso.
Build rapide e coerenti
Utilizza Cloud Build per eseguire in modo affidabile il deployment dei container su GKE, senza dover configurare l'autenticazione.
Portabilità dei carichi di lavoro, on-premise e su cloud
GKE esegue Certified Kubernetes, consentendo la portabilità dei carichi di lavoro in altre piattaforme Kubernetes nei cloud e on-premise.
Supporto di GPU e TPU
GKE supporta GPU e TPU e semplifica l'esecuzione di ML, GPGPU, HPC e altri carichi di lavoro che traggono vantaggio da acceleratori hardware specializzati.
Dashboard integrata
La console Google Cloud offre dashboard utili per i cluster del progetto e le relative risorse. Puoi utilizzare queste dashboard per visualizzare, ispezionare, gestire ed eliminare risorse nei cluster.
VM Spot
Istanze di calcolo convenienti, adatte per job batch e carichi di lavoro a tolleranza di errore.
Le VM spot offrono risparmi significativi, fino al 91%, pur conservando le stesse prestazioni e capacità delle VM normali.
Supporto dei dischi permanenti
Archiviazione a blocchi durevole e ad alte prestazioni per istanze di container. I dati sono archiviati in modo ridondante per garantire l'integrità e la flessibilità necessarie per ridimensionare lo spazio di archiviazione senza interruzioni e la crittografia automatica. È possibile creare dischi permanenti nei formati HDD o SSD. Puoi inoltre creare snapshot del disco permanente e creare nuovi dischi permanenti a partire da questi snapshot.
Supporto di SSD locali
GKE offre archiviazione a blocchi su unità a stato solido (SSD) locali, costantemente criptate. Le unità SSD locali sono fisicamente collegate al server che ospita l'istanza della macchina virtuale offrendo un numero molto elevato di operazioni di I/O al secondo (IOPS) e una latenza molto bassa rispetto ai dischi permanenti.
Bilanciamento del carico globale
La tecnologia di bilanciamento del carico globale consente di distribuire le richieste in arrivo tra i diversi pool di istanze in diverse regioni, per garantire i massimi livelli di prestazioni, velocità effettiva e disponibilità a costi ridotti.
Supporto Linux e Windows
GKE è completamente supportato per carichi di lavoro Linux e Windows, e può eseguire nodi Windows Server e Linux.
Supporto di cloud ibrido e multi-cloud
Sfrutta Kubernetes e la tecnologia cloud nel tuo data center. L'esperienza GKE è a tua disposizione con rapide e semplici installazioni gestite e con upgrade convalidati da Google attraverso Anthos.
Container serverless
Esegui container stateless serverless eliminando tutta la gestione dell'infrastruttura e scalandoli automaticamente con Cloud Run.
Misurazione dell'utilizzo
Visibilità granulare sui tuoi cluster Kubernetes. L'utilizzo delle risorse dei tuoi cluster GKE è ora suddiviso in base a spazi dei nomi ed etichette e puoi associarlo a entità significative.
Canali di rilascio
I canali di rilascio consentono un controllo maggiore sugli aggiornamenti automatici ricevuti da un dato cluster, in base ai requisiti di stabilità del cluster e dei suoi carichi di lavoro. Puoi scegliere fra rapidi, regolari e stabili. Ognuno ha una frequenza di rilascio diversa ed è indirizzato a carichi di lavoro diversi.
Sicurezza della catena di fornitura del software
Verifica, applica e migliora la sicurezza dei componenti dell'infrastruttura e dei pacchetti utilizzati per le immagini dei container, grazie a Container Analysis.
Fatturazione al secondo
Google applica la fatturazione al secondo. Paghi solo in base al tempo di calcolo utilizzato.
Come funziona
Un cluster GKE ha un piano di controllo e macchine denominate nodi. I nodi eseguono i servizi a supporto dei container che costituiscono i carichi di lavoro. Il piano di controllo stabilisce cosa eseguire sui nodi, oltre a occuparsi della pianificazione e della scalabilità. La modalità Autopilot gestisce questa complessità; tu devi pensare solo al deployment delle tue app per poi eseguirle.
Questo lab pratico mostra come creare una pipeline di distribuzione continua utilizzando Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder e Spinnaker. Dopo aver creato un'applicazione di esempio, configurerai questi servizi per la creazione, il test e il deployment automatici.
Utilizza Migrate to Containers per spostare e convertire i carichi di lavoro direttamente nei container di GKE. Puoi migrare un'applicazione LAMP Stack a due livelli, con le VM di app e database, da VMware a GKE.
Collabora con un partner di fiducia per ottenere Google Kubernetes Engine on-prem e portare la gestione di altissimo livello di Kubernetes nell'infrastruttura privata. Oppure sfrutta i servizi di migrazione da Google Cloud Marketplace.
Esegui il deployment di un'applicazione web containerizzata
Crea un'app web containerizzata, testala localmente e quindi eseguine il deployment in un cluster Google Kubernetes Engine (GKE), il tutto direttamente nell'editor di Cloud Shell. Al termine di questo breve tutorial imparerai a creare, modificare ed eseguire il debug di un'app Kubernetes.
Current esegue il deployment delle app e le esegue su GKE
Current, una delle principali challenger bank con sede a New York City, ora ospita la maggior parte delle proprie app in container Docker, inclusa l'API GraphQL business-critical, utilizzando GKE per automatizzare il deployment dei cluster e la gestione delle app containerizzate.
Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per Ingress multi-cluster.
Livello gratuito
Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.
Gratis
Modalità operativa dei cluster
Modalità Standard
Utilizza i nodi di Compute Engine nel cluster. I costi per ogni istanza ti vengono addebitati in base ai prezzi di Compute Engine.
0,10 $
per cluster all'ora
Modalità Autopilot
Tariffa fissa per cluster, in aggiunta alle risorse di calcolo, memoria e CPU di cui viene eseguito il provisioning per i pod.
0,10 $
per cluster all'ora
Tariffe di gestione dei cluster
La tariffa di gestione dei cluster si applica a tutti i cluster GKE indipendentemente da modalità operativa, dimensioni e topologia dei cluster.
0,10 $
per cluster all'ora
Prezzi di Ingress multi-cluster
Autonomi
I prezzi autonomi di Ingress multi-cluster si basano sul numero di pod considerati backend di Ingress multi-cluster.
3,00 $
per pod di backend al mese (730 ore)
Anthos
Ingress multi-cluster è incluso in Anthos senza costi aggiuntivi.
Gratis
per gli utenti Anthos
Come funzionano i prezzi di GKE
Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per Ingress multi-cluster.
Servizio
Descrizione
Prezzo (USD)
Livello gratuito
Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.
Gratis
Modalità operativa dei cluster
Modalità Standard
Utilizza i nodi di Compute Engine nel cluster. I costi per ogni istanza ti vengono addebitati in base ai prezzi di Compute Engine.
0,10 $
per cluster all'ora
Modalità Autopilot
Tariffa fissa per cluster, in aggiunta alle risorse di calcolo, memoria e CPU di cui viene eseguito il provisioning per i pod.
0,10 $
per cluster all'ora
Tariffe di gestione dei cluster
La tariffa di gestione dei cluster si applica a tutti i cluster GKE indipendentemente da modalità operativa, dimensioni e topologia dei cluster.
0,10 $
per cluster all'ora
Prezzi di Ingress multi-cluster
Autonomi
I prezzi autonomi di Ingress multi-cluster si basano sul numero di pod considerati backend di Ingress multi-cluster.
3,00 $
per pod di backend al mese (730 ore)
Anthos
Ingress multi-cluster è incluso in Anthos senza costi aggiuntivi.
Gratis
per gli utenti Anthos
Calcolatore prezzi
Stima i costi mensili di GKE, inclusi i prezzi e le tariffe specifici per regione.
[{
"type": "thumb-down",
"id": "hardToUnderstand",
"label":"Difficile da capire"
},{
"type": "thumb-down",
"id": "incorrectInformationOrSampleCode",
"label":"Informazioni o codice di esempio errati"
},{
"type": "thumb-down",
"id": "missingTheInformationSamplesINeed",
"label":"Mancano le informazioni o gli esempi di cui ho bisogno"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"Problema di traduzione"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"Altra"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"Facile da capire"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"Il problema è stato risolto"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"Altra"
}]