Scarica la tua copia gratuita della Solution Scorecard di Gartner per i servizi Kubernetes di cloud pubblico

Vai a

Google Kubernetes Engine

Un modo semplice per automatizzare il deployment, la scalabilità e la gestione di Kubernetes.

I nuovi clienti possono utilizzare 300 $ di crediti gratuiti per provare GKE. 

  • action/check_circle_24px Creato con Sketch.

    Esegui Kubernetes su una piattaforma realizzata dall'azienda che ha dato il maggior contributo di progettazione a K8s

  • action/check_circle_24px Creato con Sketch.

    Inizia rapidamente a creare grazie ai cluster con un solo clic e fai lo scale up fino a 15.000 nodi

  • action/check_circle_24px Creato con Sketch.

    Sfrutta un piano di controllo ad alta disponibilità, che comprende cluster multi-zona e a livello di area geografica

  • action/check_circle_24px Creato con Sketch.

    Elimina l'overhead operativo con la scalabilità automatica a quattro vie leader di settore 

  • action/check_circle_24px Creato con Sketch.

    Utilizza una piattaforma sicura per impostazione predefinita, con analisi delle vulnerabilità delle immagini dei container e crittografia dei dati

Vantaggi

Accelera lo sviluppo delle app senza sacrificare la sicurezza

Sviluppa un'ampia gamma di applicazioni con supporto stateful, serverless e degli acceleratori di applicazioni. Utilizza gli strumenti CI/CD nativi di Kubernetes per proteggere e accelerare ogni fase del ciclo di vita di creazione e deployment.

Semplifica le operazioni con i canali di rilascio

Scegli il canale più adatto alle esigenze della tua attività. I canali di rilascio rapidi, regolari e stabili hanno cadenze diverse di aggiornamento dei nodi e offrono livelli di supporto allineati alla natura del canale.

Riduci le operazioni day-2 con l'aiuto degli SRE di Google

Riprenditi il tempo che ti serve per concentrarti sulle applicazioni con l'aiuto degli SRE (Site Reliability Engineer) di Google. I nostri SRE eseguono un monitoraggio costante dei tuoi cluster e delle relative risorse di calcolo, networking e archiviazione.

Funzionalità principali

Funzionalità principali

Due modalità di funzionamento, un unico GKE

GKE offre ora due modalità di funzionamento: Standard e Autopilot. La modalità Standard è l'esperienza che abbiamo creato fin dal lancio di GKE, offrendoti totale controllo sui nodi e la capacità di ottimizzare ed eseguire carichi di lavoro di amministrazione personalizzati. La nuova modalità Autopilot è una soluzione completamente gestita, che non richiede interventi e gestisce l'intera infrastruttura del tuo cluster senza che tu debba preoccuparti di configurazione e monitoraggio. Inoltre, con la fatturazione per pod Autopilot ti garantisce che pagherai solo per i pod in esecuzione, non per i componenti del sistema, l'overhead del sistema operativo o la capacità non allocata.

Scalabilità automatica di pod e cluster

GKE è il primo servizio Kubernetes completamente gestito che implementa supporto completo per le API Kubernetes, scalabilità automatica a quattro vie, canali di rilascio e ambienti multicluster. La scalabilità automatica orizzontale dei pod può essere basata sull'utilizzo della CPU o su metriche personalizzate. Il funzionamento della scalabilità automatica dei cluster è per pool di nodi, mentre la scalabilità automatica pod verticale analizza continuamente l'utilizzo di CPU e memoria dei pod, regolando automaticamente le richieste di CPU e memoria.

Applicazioni e modelli Kubernetes predefiniti

Accedi a soluzioni containerizzate di livello enterprise con modelli di deployment preimpostati, che prevedono portabilità, licenze semplificate e fatturazione consolidata. Non si tratta solo di immagini container, ma di applicazioni open source, realizzate da Google e commerciali che aumentano la produttività degli sviluppatori. Fai clic per eseguire il deployment on-premise o in cloud di terze parti da Google Cloud Marketplace.

Sicurezza e networking nativi del container

GKE Sandbox fornisce un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE, per una maggiore sicurezza dei carichi di lavoro. I cluster GKE supportano i criteri di rete Kubernetes in modo nativo, per limitare il traffico con regole firewall a livello di pod. I cluster privati in GKE possono essere limitati a un endpoint privato o a un endpoint pubblico accessibile solo da determinati intervalli di indirizzi.

Migrazione semplificata di carichi di lavoro tradizionali a container GKE

Migrate per Anthos e GKE semplifica e velocizza la modernizzazione delle applicazioni tradizionali consentendone il trasferimento dalle macchine virtuali a container nativi. Il nostro esclusivo approccio automatizzato consente di estrarre gli elementi critici dell'applicazione dalla VM, in modo da poterli facilmente inserire nei container in Google Kubernetes Engine o nei cluster Anthos senza i livelli VM (come il sistema operativo guest) che non sono più necessari con i container. Questo prodotto funziona anche con GKE Autopilot.

Visualizza tutte le funzionalità

Clienti

Novità

Novità

Iscriviti alle newsletter di Google Cloud per ricevere aggiornamenti su prodotti, informazioni sugli eventi, offerte speciali e molto altro.

Documentazione

Documentazione

Best practice
Best practice per l'utilizzo dei container

Scopri le best practice per l'utilizzo dei container in GKE.

Tutorial
Tutorial GKE: deployment di un'applicazione web containerizzata

Crea una semplice applicazione, pacchettizzala in un container, quindi esegui il deployment dell'immagine del container in GKE, il tutto direttamente nell'editor di Cloud Shell. 

Best practice
Preparazione di un ambiente GKE per la produzione

Segui le indicazioni e la metodologia per l'onboarding dei carichi di lavoro su GKE in modo più sicuro, affidabile ed economico.

Tutorial
Protezione del cluster GKE

Impara a implementare le indicazioni per la protezione del tuo cluster GKE.

Tutorial
Risorse GKE

Trova ulteriori informazioni su funzionalità, aggiornamenti, prezzi e molto altro.

Tutorial
Scopri cosa puoi creare su Google Cloud

Scopri le guide tecniche sulle risorse di Google Cloud per sfruttare tutte le potenzialità di GKE.

Casi d'uso

Casi d'uso

Caso d'uso
Pipeline di distribuzione continua

Attiva sviluppo e iterazione rapidi delle applicazioni, semplificando il deployment, l'aggiornamento e la gestione di applicazioni e servizi. Configura i servizi GKE, Cloud Source Repositories, Cloud Build e Spinnaker per Google Cloud per costruire, verificare e sottoporre a deployment un'app automaticamente. Se viene modificato il codice dell'app, le modifiche fanno in modo che la pipeline di distribuzione continua ricrei, riverifichi e sottoponga nuovamente a deployment la nuova versione.

Diagramma che mostra come gli sviluppatori possono creare una pipeline di distribuzione continua
Caso d'uso
Migrazione di un'applicazione a due livelli a GKE

Utilizza Migrate for Anthos per spostare e convertire i carichi di lavoro direttamente nei container di GKE. Puoi migrare un'applicazione a due livelli stack LAMP, con le VM dell'applicazione e del database, da VMware a GKE. Migliora la sicurezza rendendo il database accessibile solo dal container dell'applicazione e non dall'esterno del cluster. Sostituisci l'accesso SSH con un accesso shell autenticato tramite kubectl. Guarda i log di sistema del container tramite l'integrazione automatica di Cloud Logging.

Diagramma che mostra come spostare e convertire i carichi di lavoro in GKE

Tutte le funzionalità

Tutte le funzionalità

Gestione di identità e accessi Controlla l'accesso nel cluster con i tuoi Account Google e le autorizzazioni relative ai ruoli.
Networking ibrido Riserva un intervallo di indirizzi IP per il tuo cluster, consentendo agli IP del cluster di coesistere con gli IP delle reti private tramite Google Cloud VPN.
Sicurezza e conformità GKE è supportato dal team Google dedicato alla sicurezza, composto da oltre 750 esperti del settore, ed è conforme sia alle normative HIPAA che allo standard PCI DSS.
Logging e monitoraggio integrati Abilita Cloud Logging e Cloud Monitoring semplicemente configurando le caselle di controllo, per ottenere agevolmente insight sull'esecuzione dell'applicazione.
Opzioni relative al cluster Scegli cluster personalizzati per la disponibilità, la stabilità della versione, l'isolamento e i requisiti di traffico tra i pod dei tuoi carichi di lavoro.
Scalabilità automatica Fai lo scale up e lo scale down automatico del deployment delle applicazioni, in base all'utilizzo delle risorse (CPU, memoria).
Upgrade automatico Mantieni automaticamente aggiornato il cluster con l'ultima release di Kubernetes. Gli aggiornamenti delle release Kubernetes vengono resi disponibili rapidamente all'interno di GKE.
Riparazione automatica Quando è abilitata la riparazione automatica, se un nodo non supera il controllo di integrità, GKE avvia un processo di riparazione per tale nodo.
Limiti delle risorse Kubernetes consente di specificare la quantità di CPU e memoria (RAM) di cui ha bisogno ciascun container, che verrà poi utilizzata per organizzare al meglio i carichi di lavoro all'interno del cluster.
Isolamento del container Utilizza GKE Sandbox per ottenere un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE; per una maggiore sicurezza dei carichi di lavoro.
Supporto per le applicazioni stateful GKE non è stato progettato esclusivamente per le app a 12 fattori. Puoi collegare l'archiviazione permanente ai container e persino ospitare database completi.
Supporto per le immagini Docker GKE supporta il formato di container Docker standard.
Ambiente completamente gestito I cluster GKE sono completamente gestiti dagli SRE (Site Reliability Engineer) di Google, che assicurano che il cluster sia sempre disponibile e aggiornato.
Sistema operativo creato per i container GKE viene eseguito in Container-Optimized OS, un sistema operativo con protezione avanzata creato e gestito da Google.
Container Registry privato L'integrazione con Google Container Registry semplifica l'archiviazione delle immagini Docker private e il relativo accesso.
Build rapide e coerenti Utilizza Cloud Build per eseguire in modo affidabile il deployment dei container su GKE, senza dover configurare l'autenticazione.
Portabilità dei carichi di lavoro, on-premise e cloud GKE esegue Certified Kubernetes, consentendo la portabilità dei carichi di lavoro in altre piattaforme Kubernetes nei cloud e on-premise.
Supporto di GPU e TPU GKE supporta GPU e TPU e semplifica l'esecuzione di ML, GPGPU, HPC e altri carichi di lavoro che traggono vantaggio da acceleratori hardware specializzati.
Dashboard integrata Cloud console offre dashboard utili per i cluster del progetto e le relative risorse. Puoi utilizzare queste dashboard per visualizzare, ispezionare, gestire ed eliminare risorse nei cluster.
VM prerilasciabili Istanze convenienti e a breve durata progettate per eseguire job batch e carichi di lavoro a tolleranza di errore. Le VM prerilasciabili offrono risparmi significativi, fino all'80%, pur conservando le stesse prestazioni e capacità delle VM normali.
Supporto dei dischi permanenti Archiviazione a blocchi durevole e ad alte prestazioni per istanze di container. I dati sono archiviati in modo ridondante per garantire l'integrità, la flessibilità necessaria a ridimensionare lo spazio di archiviazione senza interruzioni e la crittografia automatica. È possibile creare dischi permanenti nei formati HDD o SSD. È inoltre possibile creare snapshot del disco permanente e creare nuovi dischi permanenti a partire da tali snapshot.
Supporto SSD locali GKE offre archiviazione a blocchi su unità a stato solido (SSD) locali, costantemente criptate. Le unità SSD locali sono fisicamente collegate al server che ospita l'istanza della macchina virtuale offrendo un numero molto elevato di operazioni di input/output al secondo (IOPS) e una latenza molto bassa rispetto ai dischi permanenti.
Bilanciamento del carico globale La tecnologia di bilanciamento del carico globale consente di distribuire le richieste in arrivo tra i diversi pool di istanze in diverse aree geografiche, per garantire i massimi livelli di prestazioni, velocità effettiva e disponibilità a costi ridotti.
Supporto Linux e Windows GKE è completamente supportato per carichi di lavoro Linux e Windows, e può eseguire nodi Windows Server e Linux.
Supporto di cloud ibrido e multi-cloud Sfrutta Kubernetes e la tecnologia cloud nel tuo data center. L'esperienza GKE è a tua disposizione con rapide e semplici installazioni gestite e con aggiornamenti convalidati da Google attraverso Anthos GKE.
Container serverless Esegui container stateless serverless eliminando tutta la gestione dell'infrastruttura e scalandoli automaticamente con Cloud Run.
Misurazione dell'utilizzo Visibilità finemente granulare sui tuoi cluster Kubernetes. Osserva l'utilizzo delle risorse dei tuoi cluster GKE suddiviso in base a spazi dei nomi ed etichette, e attribuiscilo a entità significative.
Canali di rilascio I canali di rilascio consentono un controllo maggiore sugli aggiornamenti automatici ricevuti da un dato cluster, in base ai requisiti di stabilità del cluster e dei suoi carichi di lavoro. Puoi scegliere fra rapidi, regolari e stabili. Ognuno ha una frequenza di rilascio diversa ed è indirizzato a carichi di lavoro diversi.
Sicurezza della catena di fornitura del software Verifica, applica e migliora la sicurezza dei componenti dell'infrastruttura e dei pacchetti utilizzati per le immagini dei container, grazie a Container Analysis.
Fatturazione al secondo Google applica la fatturazione al secondo. Paghi solo in base al tempo di calcolo utilizzato.

Prezzi

Prezzi

Un cluster Autopilot o di zona per account di fatturazione è gratuito.

Si applica una commissione di gestione dei cluster pari a 0,10 $ per cluster/ora, tranne per Anthos. I pod utente nei cluster Autopilot vengono fatturati al secondo per i core della CPU, la memoria e l'archiviazione temporanea, fino a quando un pod non viene eliminato. Ai nodi worker nei cluster standard si applicano i costi di calcolo, fino all'eliminazione del cluster.