Google Kubernetes Engine

Cluster di container GKE in Google Cloud
Esegui app avanzate su un servizio Kubernetes protetto e gestito

GKE è una piattaforma di livello aziendale per applicazioni containerizzate, incluse applicazioni stateful e stateless, IA e ML, Linux e Windows, app web complesse e semplici, API e servizi backend. Sfrutta funzionalità di primo piano nel settore, come la scalabilità automatica a quattro vie e la gestione senza stress. Ottimizza il provisioning di GPU e TPU, utilizza gli strumenti integrati per sviluppatori e il supporto multi-cluster degli SRE.

  • Inizia rapidamente a creare cluster con un solo clic
  • Sfrutta un piano di controllo ad alta disponibilità, che comprende cluster multi-zona e regionali
  • Elimina i sovraccarichi operativi con la riparazione automatica, gli upgrade automatici e i canali di rilascio
  • Protetto per impostazione predefinita, con analisi delle vulnerabilità delle immagini dei container e crittografia dei dati
  • Stackdriver Monitoring integrato con viste dell'infrastruttura, delle applicazioni e specifiche di Kubernetes

Accelera lo sviluppo senza sacrificare la sicurezza

Sviluppa un'ampia gamma di applicazioni con supporto stateful, serverless e degli acceleratori di applicazioni. Utilizza gli strumenti CI/CD nativi di Kubernetes per proteggere e accelerare ogni fase del ciclo di vita di creazione e deployment.

Semplifica le operazioni con i canali di rilascio

Scegli il canale più adatto alle esigenze della tua attività. I canali di rilascio rapidi, regolari e stabili hanno cadenze diverse di aggiornamento dei nodi e offrono livelli di supporto allineati alla natura del canale.

Lascia che gli SRE di Google gestiscano l'infrastruttura

Riprenditi il tempo che ti serve per concentrarti sulle applicazioni con l'aiuto degli SRE (Site Reliability Engineer) di Google. I nostri SRE eseguono un monitoraggio costante dei tuoi cluster e delle relative risorse di calcolo, networking e archiviazione.

Funzionalità principali

Per gli sviluppatori

Applicazioni Kubernetes

Soluzioni containerizzate di livello enterprise con modelli di deployment preimpostati, portabilità, licenze semplificate e fatturazione consolidata. Non si tratta solo di immagini container, ma di applicazioni commerciali open source basate su Google che aumentano la produttività degli sviluppatori, ora disponibili su Google Cloud Marketplace.

Per gli operatori della piattaforma

Scalabilità automatica di pod e cluster

Scalabilità orizzontale automatica dei pod basata sull'utilizzo della CPU o su metriche personalizzate, scalabilità automatica dei cluster basata sui singoli pool di nodi e scalabilità verticale automatica dei pod con analisi continua dell'uso di CPU e memoria da parte dei pod e conseguente adeguamento dinamico delle richieste di CPU e memoria. Scalabilità automatica del pool di nodi e dei cluster su più pool di nodi, basata sui cambiamenti nei requisiti dei carichi di lavoro.

Per gli amministratori della sicurezza

Sicurezza del carico di lavoro e della rete

GKE Sandbox fornisce un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE, per una maggiore sicurezza dei carichi di lavoro. I cluster GKE supportano i criteri di rete Kubernetes in modo nativo, per limitare il traffico con regole firewall a livello di pod. I cluster privati in GKE possono essere limitati a un endpoint privato o a un endpoint pubblico accessibile solo da determinati intervalli di indirizzi.

Visualizza tutte le funzionalità

Testimonianze dei clienti

In evidenza

  • Riduce di 10 volte il tempo medio di risposta delle API alle richieste

  • Raddoppia il numero di nodi Kubernetes in pochi secondi

  • Identifica i colli di bottiglia per migliorare i processi dispendiosi in termini di tempo

Settore

  • Beni al dettaglio e di largo consumo

Visualizza altri clienti

Novità

Documentazione

Tutorial
Guida rapida di GKE

Illustra come eseguire il deployment di un'applicazione containerizzata con GKE. Segui i passaggi in modo autonomo o prova il training lab incluso.

Best practice
Best practice per l'utilizzo dei container

Scopri le best practice per l'utilizzo dei container in GKE.

Tutorial
Tutorial GKE: Deployment di un'applicazione web containerizzata

Questo tutorial mostra come pacchettizzare un'applicazione web in un'immagine di container Docker ed eseguire quell'immagine di container su un cluster GKE.

Tutorial
Lab sotto forma di gioco

Esegui il deployment di un'applicazione containerizzata con GKE in meno di 30 minuti. Aumenta i punti e guadagna badge durante l'attività.

Best practice
Preparazione di un ambiente GKE per la produzione

Segui la guida e la metodologia per inizializzare i carichi di lavoro su GKE in modo più sicuro, affidabile ed economico.

Casi d'uso comuni

Sviluppo moderno di applicazioni

GKE offre rapidità di sviluppo e iterazione delle applicazioni semplificando il deployment, l'aggiornamento e la gestione di applicazioni e servizi.

Pipeline di distribuzione continua

Pipeline di distribuzione continua che utilizza GKE, Cloud Source Repositories, Cloud Build e Spinnaker per Google Cloud. Configura questi servizi per creare, collaudare un'app ed eseguirne il deployment. Quando il codice dell'app viene modificato, le modifiche attivano la pipeline di distribuzione continua che ricrea e ricollauda automaticamente la nuova versione, e ne riesegue il deployment.

Architettura, che mostra la pipeline di distribuzione continua tramite GKEDevelopersUsersCloud SourceRepositoriesSpinnakerCloud LoadBalancingCloud StorageCloud BuildGoogleKubernetes Enginemy-app-canarymy-app-prodGoogleKubernetes EngineGoogleKubernetes EngineRedisCloud Memorystore

Migrazione delle VM nei container   

Utilizza Migrate for Anthos per spostare e convertire i carichi di lavoro direttamente nei container di Anthos GKE. I carichi di lavoro target possono includere server fisici e VM in esecuzione on-premise, su Compute Engine o altri cloud, allo scopo di offrirti tutta la flessibilità necessaria per trasformare agevolmente l'infrastruttura esistente. Soprattutto, Migrate per Anthos è disponibile senza costi aggiuntivi e non richiede un abbonamento ad Anthos.

Migrazione di un'applicazione a due livelli a GKE

Migrazione di un'applicazione a due livelli stack LAMP, con le VM dell'applicazione e del database, da VMware a GKE. Migliora la sicurezza rendendo il database accessibile solo dal container dell'applicazione e non dall'esterno del cluster. Sostituisci l'accesso SSH con un accesso shell autenticato tramite kubectl. Guarda i log di sistema del container tramite l'integrazione Stackdriver automatica.

Architettura, che mostra la migrazione di un'applicazione a due livelli a GKEGoogle Kubernetes EngineOn-premises Domain ControllerCorp DNSUsersOn-premises SubnetVPN InterconnectVPC Subnet SubnetVPCApp SVCNetwork PolicyDatabase SVCuser-space only- systemd+App Container user-space only- systemd+Database Container Cloud Extension

Tutte le funzionalità

Gestione di identità e accessi Controlla l'accesso nel cluster con i tuoi Account Google e le autorizzazioni relative ai ruoli.
Networking ibrido Riserva un intervallo di indirizzi IP per il tuo cluster, consentendo agli IP del cluster di coesistere con gli IP delle reti private tramite Google Cloud VPN.
Sicurezza e conformità GKE è supportato dal team Google dedicato alla sicurezza, composto da oltre 750 esperti del settore, ed è conforme sia alle normative HIPAA che allo standard PCI DSS 3.1.
Logging e monitoraggio integrati Abilita Stackdriver Logging e Stackdriver Monitoring semplicemente configurando le caselle di controllo, per ottenere agevolmente informazioni sull'esecuzione dell'applicazione.
Opzioni relative al cluster Scegli cluster personalizzati per la disponibilità, la stabilità della versione, l'isolamento e i requisiti di traffico tra i pod dei tuoi carichi di lavoro.
Scalabilità automatica Scala automaticamente il deployment delle applicazioni in base all'utilizzo delle risorse (CPU, memoria).
Upgrade automatico Mantieni automaticamente aggiornato il cluster con l'ultima versione rilasciata di Kubernetes. Gli aggiornamenti delle release di Kubernetes vengono resi disponibili rapidamente all'interno di GKE.
Riparazione automatica Quando la riparazione automatica è abilitata, se un nodo non supera il controllo di integrità, GKE avvia un processo di riparazione per tale nodo.
Limiti di risorse Kubernetes consente di specificare la quantità di CPU e memoria (RAM) di cui ha bisogno ciascun container, che verrà poi utilizzata per organizzare al meglio i carichi di lavoro all'interno del cluster.
Isolamento del container Utilizza GKE Sandbox per usufruire di un secondo livello di difesa tra i carichi di lavoro containerizzati su GKE per una maggiore sicurezza dei carichi di lavoro.
Supporto per le applicazioni stateful GKE non è stato progettato esclusivamente per le applicazioni a 12 fattori. Puoi collegare l'archiviazione permanente ai container e persino ospitare database completi.
Supporto per le immagini Docker GKE supporta il formato di container Docker standard.
Gestione completa I cluster GKE sono completamente gestiti dagli SRE (Site Reliability Engineer) di Google, che assicurano che il cluster sia sempre disponibile e aggiornato.
Sistema operativo creato per i container GKE viene eseguito in Container-Optimized OS, un sistema operativo con protezione avanzata creato e gestito da Google.
Container Registry privato L'integrazione con Google Container Registry semplifica l'archiviazione delle immagini Docker private e il relativo accesso.
Build rapide e coerenti Utilizza Cloud Build per eseguire in modo affidabile il deployment dei container su GKE, senza dover configurare l'autenticazione.
Portabilità dei carichi di lavoro, on-premise e cloud GKE esegue Certified Kubernetes, consentendo la portabilità dei carichi di lavoro in altre piattaforme Kubernetes nei cloud e on-premise.
Supporto di GPU e TPU GKE supporta GPU e TPE, e semplifica l'esecuzione di ML, GPGPU, HPC e altri carichi di lavoro che traggono vantaggio da acceleratori hardware specializzati.
Dashboard integrata Cloud console offre dashboard utili per i cluster del progetto e le relative risorse. Puoi utilizzare queste dashboard per visualizzare, ispezionare, gestire ed eliminare risorse nei cluster.
VM prerilasciabili Istanze convenienti e a breve durata adatte per job in batch e carichi di lavoro a tolleranza di errore. Le VM prerilasciabili offrono risparmi significativi, fino all'80%, pur conservando le stesse prestazioni e capacità delle VM normali.
Supporto dei dischi permanenti Archiviazione a blocchi durevole e ad alte prestazioni per istanze di container. I dati sono archiviati in modo ridondante per garantire l'integrità, la flessibilità necessaria per ridimensionare lo spazio di archiviazione senza interruzioni e la crittografia automatica. È possibile creare dischi permanenti nei formati HDD o SSD. È inoltre possibile creare snapshot del disco permanente e creare nuovi dischi permanenti a partire da tali snapshot.
Supporto SSD locali GKE offre archiviazione a blocchi su unità a stato solido (SSD) locali, costantemente criptate. Le unità SSD locali sono fisicamente collegate al server che ospita l'istanza della macchina virtuale offrendo un numero molto elevato di operazioni di input/output al secondo (IOPS) e una latenza molto bassa rispetto ai dischi permanenti.
Bilanciamento del carico globale La tecnologia di bilanciamento del carico globale consente di distribuire le richieste in entrata tra i diversi pool di istanze in diverse aree geografiche, per garantire i massimi livelli di prestazioni, velocità effettiva e disponibilità a costi ridotti.
Supporto Linux e Windows GKE è completamente supportato per carichi di lavoro Linux e Windows, e può eseguire nodi Windows Server e Linux.
Supporto di cloud ibrido e multi-cloud Sfrutta Kubernetes e la tecnologia cloud nel tuo data center. L'esperienza GKE è a tua disposizione con rapide e semplici installazioni gestite, nonché aggiornamenti convalidati da Google attraverso Anthos GKE.
Container serverless Esegui container stateless serverless eliminando tutta la gestione dell'infrastruttura e scalandoli automaticamente con Cloud Run.
Misurazione dell'utilizzo Visibilità finemente granulare sui tuoi cluster Kubernetes. Osserva l'utilizzo delle risorse dei tuoi cluster GKE suddiviso in base a spazi dei nomi ed etichette, e attribuiscilo a entità significative.
Canali di rilascio I canali di rilascio consentono un controllo maggiore sugli aggiornamenti automatici ricevuti da un dato cluster, in base ai requisiti di stabilità del cluster e dei suoi carichi di lavoro. Puoi scegliere fra rapidi, regolari e stabili. Ognuno ha una frequenza di rilascio diversa ed è indirizzato a carichi di lavoro diversi.
Sicurezza della catena di fornitura del software Verifica, applica e migliora la sicurezza dei componenti dell'infrastruttura e dei pacchetti utilizzati per le immagini dei container, grazie a Container Analysis.
Fatturazione al secondo Google applica la fatturazione al secondo. Paghi solo in base al tempo di calcolo utilizzato.

Prezzi

Google applica una tariffa a seconda dei prezzi delle istanze di Compute Engine per ogni nodo presente nel cluster, fino all'eliminazione di un cluster.

Visualizza i dettagli dei prezzi