Non riesci a scalare Prometheus per le metriche Kubernetes? Partecipa con noi a una discussione dal vivo giovedì 27 aprile alle 09:00 PDT.

Icona GKE Google Kubernetes Engine (GKE)

Il servizio Kubernetes più scalabile e completamente automatizzato

Imposta i container su Autopilot, eliminando la necessità di gestire nodi o capacità e riducendo i costi dei cluster, con una competenza minima o nulla delle operazioni del cluster.

I nuovi clienti possono utilizzare 300 $ di crediti gratuiti per provare GKE.

Funzionalità

Esperienza Kubernetes serverless su Autopilot

La modalità Autopilot di GKE è una piattaforma Kubernetes completamente gestita e senza intervento manuale, che gestisce l'infrastruttura di calcolo sottostante del cluster (senza necessità di configurazione o monitoraggio da parte tua), garantendo comunque un'esperienza Kubernetes completa. Inoltre, con la fatturazione per pod, Autopilot ti garantisce che pagherai solo per i pod in esecuzione, non per i componenti del sistema, l'overhead del sistema operativo o la capacità non allocata per un massimo dell'85% di risparmio grazie all'efficienza operativa e delle risorse.

Sicurezza e networking nativi del container

I cluster connessi privatamente in rete in GKE possono essere limitati a un endpoint privato o a un endpoint pubblico accessibile solo da determinati intervalli di indirizzi. GKE Sandbox per la modalità operativa Standard fornisce un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE, per una maggiore sicurezza dei carichi di lavoro. I cluster GKE supportano intrinsecamente i criteri di rete Kubernetes per limitare il traffico con regole firewall a livello di pod.

Applicazioni e modelli Kubernetes predefiniti

Accedi a soluzioni containerizzate di livello enterprise con modelli di deployment preimpostati, che prevedono portabilità, licenze semplificate e fatturazione consolidata. Non si tratta solo di immagini container, ma di applicazioni open source, realizzate da Google e commerciali che aumentano la produttività degli sviluppatori. Fai clic per eseguire il deployment on-premise o in cloud di terze parti da Google Cloud Marketplace.

Scalabilità automatica di pod e cluster

GKE implementa supporto completo per le API Kubernetes, scalabilità automatica a quattro vie, canali di rilascio e ambienti multicluster e scala fino a 15.000 nodi. La scalabilità automatica orizzontale dei pod può essere basata sull'utilizzo della CPU o su metriche personalizzate. Il funzionamento della scalabilità automatica dei cluster è per pool di nodi, mentre la scalabilità automatica pod verticale analizza continuamente l'utilizzo di CPU e memoria dei pod, regolando automaticamente le richieste di CPU e memoria.

Strumenti automatici per migrare facilmente i carichi di lavoro

Migrate to Containers semplifica e velocizza la modernizzazione delle applicazioni tradizionali consentendone il trasferimento dalle macchine virtuali ai container. Il nostro esclusivo approccio automatizzato consente di estrarre gli elementi critici dell'applicazione dalla VM, in modo da poterli facilmente inserire nei container all'interno di cluster GKE o Anthos senza i livelli VM (come il sistema operativo guest), che diventano inutili grazie ai container. Questo prodotto funziona anche con GKE Autopilot.

Backup per GKE

Backup per GKE è un modo semplice per i clienti che eseguono carichi di lavoro stateful su GKE per proteggere, gestire e ripristinare le applicazioni e i dati containerizzati.

Gestione di identità e accessi

Controlla l'accesso nel cluster con i tuoi Account Google e le autorizzazioni relative ai ruoli.

Networking ibrido

Riserva un intervallo di indirizzi IP per il tuo cluster, consentendo agli IP del cluster di coesistere con gli IP delle reti private tramite Google Cloud VPN.

Sicurezza e conformità

GKE è supportato dal team Google dedicato alla sicurezza, composto da oltre 750 esperti del settore, ed è conforme sia alle normative HIPAA che allo standard PCI DSS.

Logging e monitoraggio integrati

Abilita Cloud Logging e Cloud Monitoring tramite la semplice configurazione di caselle di controllo per ottenere agevolmente insight sull'esecuzione dell'applicazione.

Opzioni relative al cluster

Scegli cluster personalizzati per la disponibilità, la stabilità della versione, l'isolamento e i requisiti di traffico tra i pod dei tuoi carichi di lavoro.

Scalabilità automatica

Fai lo scale up e lo scale down in modo automatico del deployment delle applicazioni, in base all'utilizzo delle risorse (CPU, memoria).

Upgrade automatico

Mantieni automaticamente aggiornato il cluster con l'ultima release di Kubernetes.

Riparazione automatica

Quando è abilitata la riparazione automatica, se un nodo non supera il controllo di integrità, GKE avvia un processo per la sua riparazione.

Limiti delle risorse

Kubernetes consente di specificare la quantità di CPU e memoria (RAM) di cui ha bisogno ciascun container, che verrà poi utilizzata per organizzare al meglio i carichi di lavoro all'interno del cluster.

Isolamento del container

Utilizza GKE Sandbox per ottenere un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE e migliorare la sicurezza dei carichi di lavoro.

Supporto per le applicazioni stateful

GKE non è stato progettato esclusivamente per le app a 12 fattori. Puoi collegare l'archiviazione permanente ai container e persino ospitare database completi.

Supporto per le immagini Docker

GKE supporta il formato di container Docker standard.

Sistema operativo creato per i container

GKE viene eseguito in Container-Optimized OS, un sistema operativo con protezione avanzata creato e gestito da Google.

Container Registry privato

L'integrazione con Google Container Registry semplifica l'archiviazione delle immagini Docker private e il relativo accesso.

Build rapide e coerenti

Utilizza Cloud Build per eseguire in modo affidabile il deployment dei container su GKE, senza dover configurare l'autenticazione.

Portabilità dei carichi di lavoro, on-premise e su cloud

GKE esegue Certified Kubernetes, consentendo la portabilità dei carichi di lavoro in altre piattaforme Kubernetes nei cloud e on-premise.

Supporto di GPU e TPU

GKE supporta GPU e TPU e semplifica l'esecuzione di ML, GPGPU, HPC e altri carichi di lavoro che traggono vantaggio da acceleratori hardware specializzati.

Dashboard integrata

La console Google Cloud offre dashboard utili per i cluster del progetto e le relative risorse. Puoi utilizzare queste dashboard per visualizzare, ispezionare, gestire ed eliminare risorse nei cluster.

VM Spot

Istanze di calcolo convenienti, adatte per job batch e carichi di lavoro a tolleranza di errore. Le VM spot offrono risparmi significativi, fino al 91%, pur conservando le stesse prestazioni e capacità delle VM normali.

Supporto dei dischi permanenti

Archiviazione a blocchi durevole e ad alte prestazioni per istanze di container. I dati sono archiviati in modo ridondante per garantire l'integrità e la flessibilità necessarie per ridimensionare lo spazio di archiviazione senza interruzioni e la crittografia automatica. È possibile creare dischi permanenti nei formati HDD o SSD. Puoi inoltre creare snapshot del disco permanente e creare nuovi dischi permanenti a partire da questi snapshot.

Supporto di SSD locali

GKE offre archiviazione a blocchi su unità a stato solido (SSD) locali, costantemente criptate. Le unità SSD locali sono fisicamente collegate al server che ospita l'istanza della macchina virtuale offrendo un numero molto elevato di operazioni di I/O al secondo (IOPS) e una latenza molto bassa rispetto ai dischi permanenti.

Bilanciamento del carico globale

La tecnologia di bilanciamento del carico globale consente di distribuire le richieste in arrivo tra i diversi pool di istanze in diverse regioni, per garantire i massimi livelli di prestazioni, velocità effettiva e disponibilità a costi ridotti.

Supporto Linux e Windows

GKE è completamente supportato per carichi di lavoro Linux e Windows, e può eseguire nodi Windows Server e Linux.

Supporto di cloud ibrido e multi-cloud

Sfrutta Kubernetes e la tecnologia cloud nel tuo data center. L'esperienza GKE è a tua disposizione con rapide e semplici installazioni gestite e con upgrade convalidati da Google attraverso Anthos.

Container serverless

Esegui container stateless serverless eliminando tutta la gestione dell'infrastruttura e scalandoli automaticamente con Cloud Run.

Misurazione dell'utilizzo

Visibilità granulare sui tuoi cluster Kubernetes. L'utilizzo delle risorse dei tuoi cluster GKE è ora suddiviso in base a spazi dei nomi ed etichette e puoi associarlo a entità significative.

Canali di rilascio

I canali di rilascio consentono un controllo maggiore sugli aggiornamenti automatici ricevuti da un dato cluster, in base ai requisiti di stabilità del cluster e dei suoi carichi di lavoro. Puoi scegliere fra rapidi, regolari e stabili. Ognuno ha una frequenza di rilascio diversa ed è indirizzato a carichi di lavoro diversi.

Sicurezza della catena di fornitura del software

Verifica, applica e migliora la sicurezza dei componenti dell'infrastruttura e dei pacchetti utilizzati per le immagini dei container, grazie a Container Analysis.

Fatturazione al secondo

Google applica la fatturazione al secondo. Paghi solo in base al tempo di calcolo utilizzato.

Come funziona

Un cluster GKE ha un piano di controllo e macchine denominate nodi. I nodi eseguono i servizi a supporto dei container che costituiscono i carichi di lavoro. Il piano di controllo stabilisce cosa eseguire sui nodi, oltre a occuparsi della pianificazione e della scalabilità. La modalità Autopilot gestisce questa complessità; tu devi pensare solo al deployment delle tue app per poi eseguirle.
Visualizza la documentazione

Google Kubernetes Engine in un minuto (01:21)

Utilizzi comuni

Integrazione e distribuzione continue

Migrazione dei carichi di lavoro

Deployment ed esecuzione delle applicazioni

Prezzi

Come funzionano i prezzi di GKE

Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per Ingress multi-cluster.

Livello gratuito

Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.

Gratis

Modalità operativa dei cluster

Modalità Standard

Utilizza i nodi di Compute Engine nel cluster. I costi per ogni istanza ti vengono addebitati in base ai prezzi di Compute Engine.

0,10 $

per cluster all'ora


Modalità Autopilot

Tariffa fissa per cluster, in aggiunta alle risorse di calcolo, memoria e CPU di cui viene eseguito il provisioning per i pod.

0,10 $

per cluster all'ora

Tariffe di gestione dei cluster

La tariffa di gestione dei cluster si applica a tutti i cluster GKE indipendentemente da modalità operativa, dimensioni e topologia dei cluster. 

0,10 $

per cluster all'ora

Prezzi di Ingress multi-cluster

Autonomi

I prezzi autonomi di Ingress multi-cluster si basano sul numero di pod considerati backend di Ingress multi-cluster.

3,00 $

per pod di backend al mese (730 ore)


Anthos

Ingress multi-cluster è incluso in Anthos senza costi aggiuntivi. 

Gratis

per gli utenti Anthos

Come funzionano i prezzi di GKE Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per Ingress multi-cluster.
Servizio Descrizione Prezzo (USD)
Livello gratuito

Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.

Gratis

Modalità operativa dei cluster

Modalità Standard

Utilizza i nodi di Compute Engine nel cluster. I costi per ogni istanza ti vengono addebitati in base ai prezzi di Compute Engine.

0,10 $

per cluster all'ora

Modalità Autopilot

Tariffa fissa per cluster, in aggiunta alle risorse di calcolo, memoria e CPU di cui viene eseguito il provisioning per i pod.

0,10 $

per cluster all'ora

Tariffe di gestione dei cluster

La tariffa di gestione dei cluster si applica a tutti i cluster GKE indipendentemente da modalità operativa, dimensioni e topologia dei cluster. 

0,10 $

per cluster all'ora

Prezzi di Ingress multi-cluster

Autonomi

I prezzi autonomi di Ingress multi-cluster si basano sul numero di pod considerati backend di Ingress multi-cluster.

3,00 $

per pod di backend al mese (730 ore)

Anthos

Ingress multi-cluster è incluso in Anthos senza costi aggiuntivi. 

Gratis

per gli utenti Anthos

Calcolatore prezzi

Stima i costi mensili di GKE, inclusi i prezzi e le tariffe specifici per regione.
Stima i costi

Preventivo personalizzato

Contatta il nostro team di vendita per ricevere un preventivo personalizzato per la tua organizzazione.
Richiedi un preventivo

Inizia la tua proof of concept

I nuovi clienti ricevono 300 $ di crediti gratuiti

Prova GKE gratuitamente

Esegui il deployment di un'app in un cluster GKE

Visualizza la guida rapida

Ricevi assistenza da parte di esperti per valutare e implementare GKE

Trova un partner

Fai clic per eseguire il deployment delle applicazioni Kubernetes

Vai a Marketplace

Scopri come eseguire il deployment delle app e configurare il monitoraggio

Esplora i tutorial