Icona GKE

Google Kubernetes Engine (GKE)

Il servizio Kubernetes più scalabile e completamente automatizzato

Imposta i container su Autopilot ed esegui in sicurezza carichi di lavoro aziendali su larga scala, con una competenza minima o nulla di K8s.

I nuovi clienti possono utilizzare 300 $ di crediti gratuiti per provare GKE.


Funzionalità

Maggiore velocità, rischio ridotto e TCO inferiore

Con la nuova versione premium di GKE Enterprise, i team delle piattaforme traggono vantaggio da una maggiore velocità configurando e osservando più cluster da un'unica posizione, definendo la configurazione per i team anziché per i cluster e offrendo opzioni self-service agli sviluppatori per il deployment e la gestione delle app. Puoi limitare i rischi utilizzando la sicurezza avanzata e la gestione delle configurazioni basata su GitOps. Riduci il costo totale di proprietà (TCO) con una soluzione completamente integrata e gestita, che permette di ottenere un ROI fino al 196% in tre anni.

Versioni flessibili

La versione di GKE Standard offre gestione del ciclo di vita dei cluster completamente automatizzata, scalabilità automatica di pod e cluster, visibilità dei costi e ottimizzazione automatizzata dei costi dell'infrastruttura. Include tutti i vantaggi esistenti di GKE e offre sia la modalità operativa Autopilot sia quella Standard. La nuova versione premium di GKE Enterprise offre tutte le funzionalità riportate sopra, oltre a gestione, governance, sicurezza e configurazione per più team e cluster, il tutto con un'esperienza unificata per la console e un mesh di servizi integrato. 

Esperienza Kubernetes serverless con Autopilot

GKE Autopilot è una modalità operativa completamente automatizzata che gestisce il calcolo sottostante del cluster (senza necessità di configurazione o monitoraggio da parte tua), garantendo comunque un'esperienza Kubernetes completa. Inoltre, con la fatturazione per pod, Autopilot ti garantisce che pagherai solo per i pod in esecuzione, non per i componenti del sistema, l'overhead del sistema operativo o la capacità non allocata per un risparmio massimo dell'85% grazie all'efficienza operativa e delle risorse. Sia la modalità operativa Autopilot che quella Standard sono disponibili nella versione GKE Enterprise.

Sicurezza e networking nativi del container

I cluster connessi privatamente in rete in GKE possono essere limitati a un endpoint privato o a un endpoint pubblico accessibile solo da determinati intervalli di indirizzi. GKE Sandbox per la modalità operativa Standard fornisce un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE, per una maggiore sicurezza dei carichi di lavoro. I cluster GKE supportano intrinsecamente i criteri di rete Kubernetes per limitare il traffico con regole firewall a livello di pod.

Scalabilità automatica di pod e cluster

GKE implementa supporto completo per le API Kubernetes, scalabilità automatica a quattro vie, canali di rilascio e ambienti multicluster e scala fino a 15.000 nodi. La scalabilità automatica orizzontale dei pod può essere basata sull'utilizzo della CPU o su metriche personalizzate. Il funzionamento della scalabilità automatica dei cluster è per pool di nodi, mentre la scalabilità automatica verticale dei pod analizza continuamente l'utilizzo di CPU e memoria dei pod, regolando automaticamente le richieste di CPU e memoria.

Applicazioni e modelli Kubernetes predefiniti

Accedi a soluzioni containerizzate di livello enterprise con modelli di deployment preimpostati, che prevedono portabilità, licenze semplificate e fatturazione consolidata. Non si tratta solo di immagini container, ma di applicazioni open source, realizzate da Google e commerciali che aumentano la produttività degli sviluppatori. Fai clic per eseguire il deployment on-premise o in cloud di terze parti da Google Cloud Marketplace.

Supporto di GPU e TPU

GKE supporta GPU e TPU e semplifica l'esecuzione di ML, GPGPU, HPC e altri carichi di lavoro che traggono vantaggio da acceleratori hardware specializzati.

Gestione multi-team tramite ambiti dei team del parco risorse

Utilizza i parchi risorse per organizzare cluster e carichi di lavoro e assegna facilmente risorse a più team per migliorare la velocità e delegare la proprietà. Gli ambiti dei team consentono di definire sottoinsiemi di risorse del parco risorse in base al team, con ogni ambito associato a uno o più cluster membro del parco risorse.

Gestione multi-cluster tramite parchi risorse

Puoi scegliere più cluster per separare i servizi tra ambienti, livelli, impostazioni internazionali, team o provider di infrastrutture. I parchi risorse e i componenti e le funzionalità di Google Cloud che li supportano cercano di semplificare il più possibile la gestione di più cluster.

Backup per GKE

Backup per GKE è un modo semplice per i clienti che eseguono carichi di lavoro stateful su GKE per proteggere, gestire e ripristinare le applicazioni e i dati containerizzati.

Supporto multi-cloud con portabilità dei carichi di lavoro

GKE esegue Certified Kubernetes, consentendo la portabilità dei carichi di lavoro in altre piattaforme Kubernetes nei cloud e on-premise. Puoi inoltre eseguire le tue app ovunque in modo coerente utilizzando GKE su Google Cloud, GKE su AWS o GKE su Azure.

Supporto ibrido

Sfrutta Kubernetes e la tecnologia cloud nel tuo data center con Google Distributed Cloud. L'esperienza GKE è a tua disposizione con rapide e semplici installazioni gestite e con upgrade convalidati da Google.

Mesh di servizi gestito

Gestisci, osserva e proteggi i tuoi servizi con l'implementazione da parte di Google del potente progetto open source Istio. Semplifica la gestione e il monitoraggio del traffico con un mesh di servizi completamente gestito.

GitOps gestito

Crea e applica configurazioni e criteri di sicurezza coerenti su cluster, parchi risorse e team con il deployment gestito della configurazione di GitOps.

Gestione di identità e accessi

Controlla l'accesso nel cluster con i tuoi account Google e le autorizzazioni relative ai ruoli.

Networking ibrido

Riserva un intervallo di indirizzi IP per il tuo cluster, consentendo agli IP del cluster di coesistere con gli IP delle reti private tramite Google Cloud VPN.

Sicurezza e conformità

GKE è supportato dal team Google dedicato alla sicurezza, composto da oltre 750 esperti del settore, ed è conforme sia alle normative HIPAA che allo standard PCI DSS.

Logging e monitoraggio integrati

Abilita Cloud Logging e Cloud Monitoring tramite la semplice configurazione di caselle di controllo per ottenere agevolmente insight sull'esecuzione dell'applicazione.

Opzioni relative al cluster

Scegli cluster personalizzati per la disponibilità, la stabilità della versione, l'isolamento e i requisiti di traffico tra i pod dei tuoi carichi di lavoro.

Scalabilità automatica

Fai lo scale up e lo scale down in modo automatico del deployment delle applicazioni, in base all'utilizzo delle risorse (CPU, memoria).

Upgrade automatico

Mantieni automaticamente aggiornato il cluster con l'ultima release di Kubernetes.

Riparazione automatica

Quando è abilitata la riparazione automatica, se un nodo non supera il controllo di integrità, GKE avvia un processo per la sua riparazione.

Limiti delle risorse

Kubernetes consente di specificare la quantità di CPU e memoria (RAM) di cui ha bisogno ciascun container, che verrà poi utilizzata per organizzare al meglio i carichi di lavoro all'interno del cluster.

Isolamento del container

Utilizza GKE Sandbox per ottenere un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE e migliorare la sicurezza dei carichi di lavoro.

Supporto per le applicazioni stateful

GKE non è stato progettato esclusivamente per le applicazioni a 12 fattori. Puoi collegare l'archiviazione permanente ai container e persino ospitare database completi.

Supporto per le immagini Docker

GKE supporta il formato di container Docker standard.

Sistema operativo creato per i container

GKE viene eseguito in Container-Optimized OS, un sistema operativo con protezione avanzata creato e gestito da Google.

Container Registry privato

L'integrazione con Google Container Registry semplifica l'archiviazione delle immagini Docker private e il relativo accesso.

Build rapide e coerenti

Utilizza Cloud Build per eseguire in modo affidabile il deployment dei container su GKE, senza dover configurare l'autenticazione.

Dashboard integrata

La console Google Cloud offre dashboard utili per i cluster del progetto e le relative risorse. Puoi utilizzare queste dashboard per visualizzare, ispezionare, gestire ed eliminare risorse nei cluster.

Spot VM

Istanze di calcolo convenienti, adatte per job batch e carichi di lavoro a tolleranza di errore. Le VM spot offrono risparmi significativi, fino al 91%, pur conservando le stesse prestazioni e capacità delle VM normali.

Supporto dei dischi permanenti

Archiviazione a blocchi durevole e ad alte prestazioni per istanze di container. I dati sono archiviati in modo ridondante per garantire l'integrità e la flessibilità necessarie per ridimensionare lo spazio di archiviazione senza interruzioni e la crittografia automatica. È possibile creare dischi permanenti nei formati HDD o SSD. Puoi inoltre creare snapshot del disco permanente e creare nuovi dischi permanenti a partire da tali snapshot.

Supporto di SSD locali

GKE offre archiviazione a blocchi su unità a stato solido (SSD) locali, costantemente criptate. Le unità SSD locali sono fisicamente collegate al server che ospita l'istanza della macchina virtuale offrendo un numero molto elevato di operazioni di I/O al secondo (IOPS) e una latenza molto bassa rispetto ai dischi permanenti.

Bilanciamento del carico globale

La tecnologia di bilanciamento del carico globale consente di distribuire le richieste in arrivo tra i diversi pool di istanze in diverse aree geografiche, per garantire i massimi livelli di prestazioni, velocità effettiva e disponibilità a costi ridotti.

Supporto Linux e Windows

GKE è completamente supportato per carichi di lavoro Linux e Windows, e può eseguire nodi Windows Server e Linux.

Container serverless

Esegui container stateless serverless eliminando tutta la gestione dell'infrastruttura e scalandoli automaticamente con Cloud Run.

Misurazione dell'utilizzo

Visibilità finemente granulare sui tuoi cluster Kubernetes. L'utilizzo delle risorse dei tuoi cluster GKE è ora suddiviso in base a spazi dei nomi ed etichette e puoi associarlo a entità significative.

Canali di rilascio

I canali di rilascio consentono un controllo maggiore sugli aggiornamenti automatici ricevuti da un dato cluster, in base ai requisiti di stabilità del cluster e dei suoi carichi di lavoro. Puoi scegliere fra rapidi, regolari e stabili. Ognuno ha una frequenza di rilascio diversa ed è indirizzato a carichi di lavoro diversi.

Sicurezza della catena di fornitura del software

Verifica, applica e migliora la sicurezza dei componenti dell'infrastruttura e dei pacchetti utilizzati per le immagini dei container, grazie ad Artifact Analysis.

fatturazione al secondo

Google applica la fatturazione al secondo. Paghi solo in base al tempo di calcolo utilizzato.

Come funziona

Un cluster GKE ha un piano di controllo e macchine denominate nodi. I nodi eseguono i servizi a supporto dei container che costituiscono i carichi di lavoro. Il piano di controllo stabilisce cosa eseguire sui nodi, oltre a occuparsi della pianificazione e della scalabilità. La modalità Autopilot gestisce questa complessità; tu devi pensare solo al deployment delle tue app per poi eseguirle.

Diagramma tecnico di GKE
Google Kubernetes Engine in un minuto (01:21)

Utilizzi comuni

Gestisci l'infrastruttura multi-cluster

Semplifica i deployment multi-cluster con i parchi risorse

Utilizza i parchi risorse per semplificare la gestione dei deployment multi-cluster, ad esempio separando gli ambienti di produzione da quelli non di produzione o separando i servizi tra livelli, località o team. I parchi risorse consentono di raggruppare e normalizzare i cluster Kubernetes, semplificando l'amministrazione dell'infrastruttura e l'adozione delle best practice di Google.
Scopri di più sulla gestione dei parchi risorse
Infrastruttura multi-cluster

    Semplifica i deployment multi-cluster con i parchi risorse

    Utilizza i parchi risorse per semplificare la gestione dei deployment multi-cluster, ad esempio separando gli ambienti di produzione da quelli non di produzione o separando i servizi tra livelli, località o team. I parchi risorse consentono di raggruppare e normalizzare i cluster Kubernetes, semplificando l'amministrazione dell'infrastruttura e l'adozione delle best practice di Google.
    Scopri di più sulla gestione dei parchi risorse
    Infrastruttura multi-cluster

      Trova il partner giusto per gestire l'infrastruttura multi-cluster

      Gestisci in modo sicuro l'infrastruttura multi-cluster e i carichi di lavoro con l'aiuto dei partner di lancio della versione Enterprise.
      Trova un partner GKE
      Loghi partner di lancio

        Esegui in sicurezza carichi di lavoro IA ottimizzati

        Esegui carichi di lavoro IA ottimizzati con l'orchestrazione della piattaforma

        Una solida piattaforma IA/ML prende in considerazione i seguenti livelli: (i) Orchestrazione dell'infrastruttura che supporta le GPU per l'addestramento e la gestione dei carichi di lavoro su larga scala, (ii) Integrazione flessibile con i framework di elaborazione di dati e computing distribuito (iii) Supporto a più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse.

        Scopri di più sull'orchestrazione IA/ML su GKE
        Framework

        Esegui carichi di lavoro IA ottimizzati con l'orchestrazione della piattaforma

        Una solida piattaforma IA/ML prende in considerazione i seguenti livelli: (i) Orchestrazione dell'infrastruttura che supporta le GPU per l'addestramento e la gestione dei carichi di lavoro su larga scala, (ii) Integrazione flessibile con i framework di elaborazione di dati e computing distribuito (iii) Supporto a più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse.

        Scopri di più sull'orchestrazione IA/ML su GKE
        Framework

        La GPU condivisa di GKE aiuta a rilevare i neutrini

        Scopri come la condivisione della GPU in Google Kubernetes Engine sta aiutando il San Diego Supercomputer Center (SDSC) e la University of Wisconsin-Madison a rilevare i neutrini al Polo Sud grazie all'IceCube Neutrino Observatory su scala di gigatoni.
        Leggi per scoprire di più
        Polo Sud

        Integrazione e distribuzione continue

        Crea una pipeline di distribuzione continua

        Questo lab pratico mostra come creare una pipeline di distribuzione continua utilizzando Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder e Spinnaker. Dopo aver creato un'applicazione di esempio, configurerai questi servizi per la creazione, il test e il deployment automatici.
        Inizia il lab pratico
        Diagramma

        Crea una pipeline di distribuzione continua

        Questo lab pratico mostra come creare una pipeline di distribuzione continua utilizzando Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder e Spinnaker. Dopo aver creato un'applicazione di esempio, configurerai questi servizi per la creazione, il test e il deployment automatici.
        Inizia il lab pratico
        Diagramma

        Deployment ed esecuzione delle applicazioni

        Esegui il deployment di un'applicazione web containerizzata

        Crea un'app web containerizzata, testala localmente e quindi eseguine il deployment in un cluster Google Kubernetes Engine (GKE), il tutto direttamente nell'editor di Cloud Shell. Al termine di questo breve tutorial imparerai a creare, modificare ed eseguire il debug di un'app Kubernetes.
        Inizia il tutorial

        Esegui il deployment di un'applicazione web containerizzata

        Crea un'app web containerizzata, testala localmente e quindi eseguine il deployment in un cluster Google Kubernetes Engine (GKE), il tutto direttamente nell'editor di Cloud Shell. Al termine di questo breve tutorial imparerai a creare, modificare ed eseguire il debug di un'app Kubernetes.
        Inizia il tutorial

        Trova il partner giusto per il deployment e l'esecuzione

        Esegui il deployment e l'esecuzione su GKE con l'aiuto dei nostri partner di fiducia, tra cui WALT Labs, Zencore, FTG e altri.

          Current esegue il deployment delle app e le esegue su GKE

          Current, una delle principali challenger bank con sede a New York City, ora ospita la maggior parte delle proprie app in container Docker, inclusa l'API GraphQL business-critical, utilizzando GKE per automatizzare il deployment dei cluster e la gestione delle app containerizzate.
          Leggi come Current ha eseguito il deployment delle app con GKE
          Carte di credito Visa aziendali Current

          Migrazione dei carichi di lavoro

          Migrazione di un'applicazione a due livelli a GKE

          Utilizza Migrate to Containers per spostare e convertire i carichi di lavoro direttamente nei container di GKE. Puoi migrare un'applicazione LAMP Stack a due livelli, con le VM di app e database, da VMware a GKE.
          Diagramma di riferimento

          Migrazione di un'applicazione a due livelli a GKE

          Utilizza Migrate to Containers per spostare e convertire i carichi di lavoro direttamente nei container di GKE. Puoi migrare un'applicazione LAMP Stack a due livelli, con le VM di app e database, da VMware a GKE.
          Diagramma di riferimento

          Partner e servizi di migrazione

          Collabora con un partner di fiducia per ottenere Google Kubernetes Engine on-prem e portare la gestione di altissimo livello di Kubernetes nell'infrastruttura privata. Oppure sfrutta i servizi di migrazione da Google Cloud Marketplace.
          Trova un partner per la migrazione

          Prezzi

          Come funzionano i prezzi di GKEDopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla versione, sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per il trasferimento dei dati in entrata.
          ServizioDescrizionePrezzo ($)
          Livello gratuito

          Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.

          Nessun costo

          Kubernetes

          Versione Enterprise

          Include funzionalità della versione Standard e operazioni multi-team, multi-cluster, self-service, sicurezza avanzata, mesh di servizi, configurazione e un'esperienza unificata per la console.

          0,0083 $

          Per vCPU all'ora

          Versione Standard

          Include gestione del ciclo di vita dei cluster completamente automatizzata, scalabilità automatica di pod e cluster, visibilità dei costi e ottimizzazione automatica dei costi dell'infrastruttura.

          0,10 $

          Per cluster all'ora

          Computing

          Modalità Autopilot: CPU, memoria e risorse di computing di cui viene eseguito il provisioning per i tuoi pod.

          Modalità Standard: il costo di ciascuna istanza ti viene addebitato in base ai prezzi di Compute Engine.

          Consulta i prezzi di Compute Engine

          Scopri di più sui prezzi di GKE. Visualizza tutti i dettagli sui prezzi

          Come funzionano i prezzi di GKE

          Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla versione, sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per il trasferimento dei dati in entrata.

          Livello gratuito
          Descrizione

          Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.

          Prezzo ($)

          Nessun costo

          Kubernetes
          Descrizione

          Versione Enterprise

          Include funzionalità della versione Standard e operazioni multi-team, multi-cluster, self-service, sicurezza avanzata, mesh di servizi, configurazione e un'esperienza unificata per la console.

          Prezzo ($)

          0,0083 $

          Per vCPU all'ora

          Versione Standard

          Include gestione del ciclo di vita dei cluster completamente automatizzata, scalabilità automatica di pod e cluster, visibilità dei costi e ottimizzazione automatica dei costi dell'infrastruttura.

          Descrizione

          0,10 $

          Per cluster all'ora

          Computing
          Descrizione

          Modalità Autopilot: CPU, memoria e risorse di computing di cui viene eseguito il provisioning per i tuoi pod.

          Modalità Standard: il costo di ciascuna istanza ti viene addebitato in base ai prezzi di Compute Engine.

          Prezzo ($)

          Consulta i prezzi di Compute Engine

          Scopri di più sui prezzi di GKE. Visualizza tutti i dettagli sui prezzi

          Calcolatore prezzi

          Stima i costi mensili di GKE, inclusi i prezzi e le tariffe specifici per regione.

          Preventivo personalizzato

          Contatta il nostro team di vendita per ricevere un preventivo personalizzato per la tua organizzazione.

          Inizia la tua proof of concept

          I nuovi clienti ricevono 300 $ di crediti gratuiti

          Esegui il deployment di un'app in un cluster GKE

          Ricevi assistenza da parte di esperti per valutare e implementare GKE

          Fai clic per eseguire il deployment delle applicazioni Kubernetes

          Scopri come eseguire il deployment delle app e configurare il monitoraggio

          Google Cloud
          • ‪English‬
          • ‪Deutsch‬
          • ‪Español‬
          • ‪Español (Latinoamérica)‬
          • ‪Français‬
          • ‪Indonesia‬
          • ‪Italiano‬
          • ‪Português (Brasil)‬
          • ‪简体中文‬
          • ‪繁體中文‬
          • ‪日本語‬
          • ‪한국어‬
          Console
          • Risparmia con il nostro approccio trasparente ai prezzi
          • Il pagamento a consumo di Google Cloud offre risparmi automatici in base all'utilizzo mensile e alle tariffe scontate per risorse prepagate. Contattaci oggi per richiedere un preventivo.
          Google Cloud