Maggiore velocità, rischio ridotto e TCO inferiore
Con la nuova versione premium di GKE Enterprise, i team delle piattaforme traggono vantaggio da una maggiore velocità configurando e osservando più cluster da un'unica posizione, definendo la configurazione per i team anziché per i cluster e offrendo opzioni self-service agli sviluppatori per il deployment e la gestione delle app. Puoi limitare i rischi utilizzando la sicurezza avanzata e la gestione delle configurazioni basata su GitOps. Riduci il costo totale di proprietà (TCO) con una soluzione completamente integrata e gestita, che permette di ottenere un ROI fino al 196% in tre anni.
La versione di GKE Standard offre gestione del ciclo di vita dei cluster completamente automatizzata, scalabilità automatica di pod e cluster, visibilità dei costi e ottimizzazione automatizzata dei costi dell'infrastruttura. Include tutti i vantaggi esistenti di GKE e offre sia la modalità operativa Autopilot sia quella Standard. La nuova versione premium di GKE Enterprise offre tutto quanto riportato sopra, oltre a gestione, governance, sicurezza e configurazione per più team e cluster, il tutto con un'esperienza unificata per la console e mesh di servizi integrato.
GKE Autopilot è una modalità operativa senza intervento manuale che gestisce il calcolo sottostante del cluster (senza necessità di configurazione o monitoraggio da parte tua), garantendo comunque un'esperienza Kubernetes completa. Inoltre, con la fatturazione per pod, Autopilot ti garantisce che pagherai solo per i pod in esecuzione, non per i componenti del sistema, l'overhead del sistema operativo o la capacità non allocata per un massimo dell'85% di risparmio grazie all'efficienza operativa e delle risorse. Sia la modalità operativa Autopilot che quella Standard sono disponibili nell'edizione GKE Enterprise.
I cluster connessi privatamente in rete in GKE possono essere limitati a un endpoint privato o a un endpoint pubblico accessibile solo da determinati intervalli di indirizzi. GKE Sandbox per la modalità operativa Standard fornisce un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE, per una maggiore sicurezza dei carichi di lavoro.
I cluster GKE supportano intrinsecamente i criteri di rete Kubernetes per limitare il traffico con regole firewall a livello di pod.
GKE implementa supporto completo per le API Kubernetes, scalabilità automatica a quattro vie, canali di rilascio e ambienti multicluster e scala fino a 15.000 nodi.
La scalabilità automatica orizzontale dei pod può essere basata sull'utilizzo della CPU o su metriche personalizzate. Il funzionamento della scalabilità automatica dei cluster è per pool di nodi, mentre la scalabilità automatica verticale dei pod analizza continuamente l'utilizzo di CPU e memoria dei pod, regolando automaticamente le richieste di CPU e memoria.
Accedi a soluzioni containerizzate di livello enterprise con modelli di deployment preimpostati, che prevedono portabilità, licenze semplificate e fatturazione consolidata. Non si tratta solo di immagini container, ma di applicazioni open source, realizzate da Google e commerciali che aumentano la produttività degli sviluppatori. Fai clic per eseguire il deployment on-premise o in cloud di terze parti da Google Cloud Marketplace.
GKE supporta GPU e TPU e semplifica l'esecuzione di ML, GPGPU, HPC e altri carichi di lavoro che traggono vantaggio da acceleratori hardware specializzati.
Gestione multi-team tramite gli ambiti dei team del parco risorse
Utilizza i parchi risorse per organizzare cluster e carichi di lavoro e assegnare facilmente risorse a più team per migliorare la velocità e delegare la proprietà. Gli ambiti dei team consentono di definire sottoinsiemi di risorse del parco risorse in base al team, con ogni ambito associato a uno o più cluster membro del parco risorse.
Backup per GKE è un modo semplice per i clienti che eseguono carichi di lavoro stateful su GKE per proteggere, gestire e ripristinare le applicazioni e i dati containerizzati.
Supporto multi-cloud con portabilità dei carichi di lavoro
GKE esegue Certified Kubernetes, consentendo la portabilità dei carichi di lavoro in altre piattaforme Kubernetes nei cloud e on-premise. Puoi inoltre eseguire le tue app ovunque in modo coerente utilizzando GKE su Google Cloud, GKE su AWS o GKE su Azure.
Supporto ibrido
Sfrutta Kubernetes e la tecnologia cloud nel tuo data center con Google Distributed Cloud.
L'esperienza GKE è a tua disposizione con rapide e semplici installazioni gestite e con upgrade convalidati da Google.
Mesh di servizi gestito
Gestisci, osserva e proteggi i tuoi servizi con l'implementazione da parte di Google del potente progetto open source Istio. Semplifica la gestione e il monitoraggio del traffico con un mesh di servizi completamente gestito.
GitOps gestito
Crea e applica configurazioni coerenti e criteri di sicurezza su cluster, parchi risorse e team con il deployment della configurazione di GitOps gestito.
Gestione di identità e accessi
Controlla l'accesso nel cluster con i tuoi Account Google e le autorizzazioni relative ai ruoli.
Networking ibrido
Riserva un intervallo di indirizzi IP per il tuo cluster, consentendo agli IP del cluster di coesistere con gli IP delle reti private tramite Google Cloud VPN.
Sicurezza e conformità
GKE è supportato dal team Google dedicato alla sicurezza, composto da oltre 750 esperti del settore, ed è conforme sia alle normative HIPAA che allo standard PCI DSS.
Logging e monitoraggio integrati
Abilita Cloud Logging e Cloud Monitoring tramite la semplice configurazione di caselle di controllo per ottenere agevolmente insight sull'esecuzione dell'applicazione.
Opzioni relative al cluster
Scegli cluster personalizzati per la disponibilità, la stabilità della versione, l'isolamento e i requisiti di traffico tra i pod dei tuoi carichi di lavoro.
Scalabilità automatica
Fai lo scale up e lo scale down in modo automatico del deployment delle applicazioni, in base all'utilizzo delle risorse (CPU, memoria).
Upgrade automatico
Mantieni automaticamente aggiornato il cluster con l'ultima release di Kubernetes.
Riparazione automatica
Quando è abilitata la riparazione automatica, se un nodo non supera il controllo di integrità, GKE avvia un processo per la sua riparazione.
Limiti delle risorse
Kubernetes consente di specificare la quantità di CPU e memoria (RAM) di cui ha bisogno ciascun container, che verrà poi utilizzata per organizzare al meglio i carichi di lavoro all'interno del cluster.
Isolamento del container
Utilizza GKE Sandbox per ottenere un secondo livello di difesa fra i carichi di lavoro containerizzati su GKE e migliorare la sicurezza dei carichi di lavoro.
Supporto per le applicazioni stateful
GKE non è stato progettato esclusivamente per le app a 12 fattori. Puoi collegare l'archiviazione permanente ai container e persino ospitare database completi.
Supporto per le immagini Docker
GKE supporta il formato di container Docker standard.
Sistema operativo creato per i container
GKE viene eseguito in Container-Optimized OS, un sistema operativo con protezione avanzata creato e gestito da Google.
Container Registry privato
L'integrazione con Google Container Registry semplifica l'archiviazione delle immagini Docker private e il relativo accesso.
Build rapide e coerenti
Utilizza Cloud Build per eseguire in modo affidabile il deployment dei container su GKE, senza dover configurare l'autenticazione.
Dashboard integrata
La console Google Cloud offre dashboard utili per i cluster del progetto e le relative risorse. Puoi utilizzare queste dashboard per visualizzare, ispezionare, gestire ed eliminare risorse nei cluster.
VM Spot
Istanze di calcolo convenienti, adatte per job batch e carichi di lavoro a tolleranza di errore.
Le VM spot offrono risparmi significativi, fino al 91%, pur conservando le stesse prestazioni e capacità delle VM normali.
Supporto dei dischi permanenti
Archiviazione a blocchi durevole e ad alte prestazioni per istanze di container. I dati sono archiviati in modo ridondante per garantire l'integrità e la flessibilità necessarie per ridimensionare lo spazio di archiviazione senza interruzioni e la crittografia automatica. È possibile creare dischi permanenti nei formati HDD o SSD. Puoi inoltre creare snapshot del disco permanente e creare nuovi dischi permanenti a partire da questi snapshot.
Supporto di SSD locali
GKE offre archiviazione a blocchi su unità a stato solido (SSD) locali, costantemente criptate.
Le unità SSD locali sono fisicamente collegate al server che ospita l'istanza della macchina virtuale offrendo un numero molto elevato di operazioni di I/O al secondo (IOPS) e una latenza molto bassa rispetto ai dischi permanenti.
Bilanciamento del carico globale
La tecnologia di bilanciamento del carico globale consente di distribuire le richieste in arrivo tra i diversi pool di istanze in diverse regioni, per garantire i massimi livelli di prestazioni, velocità effettiva e disponibilità a costi ridotti.
Supporto Linux e Windows
GKE è completamente supportato per carichi di lavoro Linux e Windows, e può eseguire nodi Windows Server e Linux.
Container serverless
Esegui container stateless serverless eliminando tutta la gestione dell'infrastruttura e scalandoli automaticamente con Cloud Run.
Misurazione dell'utilizzo
Visibilità granulare sui tuoi cluster Kubernetes. L'utilizzo delle risorse dei tuoi cluster GKE è ora suddiviso in base a spazi dei nomi ed etichette e puoi associarlo a entità significative.
Canali di rilascio
I canali di rilascio consentono un controllo maggiore sugli aggiornamenti automatici ricevuti da un dato cluster, in base ai requisiti di stabilità del cluster e dei suoi carichi di lavoro. Puoi scegliere fra rapidi, regolari e stabili. Ognuno ha una frequenza di rilascio diversa ed è indirizzato a carichi di lavoro diversi.
Sicurezza della catena di fornitura del software
Verifica, applica e migliora la sicurezza dei componenti dell'infrastruttura e dei pacchetti utilizzati per le immagini dei container, grazie ad Artifact Analysis.
Fatturazione al secondo
Google applica la fatturazione al secondo. Paghi solo in base al tempo di calcolo utilizzato.
Come funziona
Un cluster GKE ha un piano di controllo e macchine denominate nodi. I nodi eseguono i servizi a supporto dei container che costituiscono i carichi di lavoro. Il piano di controllo stabilisce cosa eseguire sui nodi, oltre a occuparsi della pianificazione e della scalabilità. La modalità Autopilot gestisce questa complessità; tu devi pensare solo al deployment delle tue app per poi eseguirle.
Semplifica i deployment multi-cluster con i parchi risorse
Utilizza i parchi risorse per semplificare la gestione dei deployment multi-cluster, ad esempio separando gli ambienti di produzione da quelli non di produzione o separando i servizi tra livelli, località o team. I parchi risorse consentono di raggruppare e normalizzare i cluster Kubernetes, semplificando l'amministrazione dell'infrastruttura e l'adozione delle best practice di Google.
Esegui in sicurezza carichi di lavoro ottimizzati di IA
Esegui carichi di lavoro ottimizzati di IA con l'orchestrazione della piattaforma
Una solida piattaforma IA/ML prende in considerazione i seguenti livelli: (i) Orchestrazione dell'infrastruttura che supporta le GPU per l'addestramento e la gestione dei carichi di lavoro su larga scala, (ii) Integrazione flessibile con i framework di elaborazione di dati e computing distribuito (iii) Supporto a più team sulla stessa infrastruttura per massimizzare l'utilizzo delle risorse.
La GPU condivisa di GKE aiuta a rilevare i neutrini
Scopri dal San Diego Supercomputer Center (SDSC) e dalla University of Wisconsin-Madison come la condivisione della GPU in Google Kubernetes Engines li sta aiutando a rilevare i neutrini al Polo Sud con l'IceCube Neutrino Observatory su scala di gigatoni.
Questo lab pratico mostra come creare una pipeline di distribuzione continua utilizzando Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder e Spinnaker. Dopo aver creato un'applicazione di esempio, configurerai questi servizi per la creazione, il test e il deployment automatici.
Esegui il deployment di un'applicazione web containerizzata
Crea un'app web containerizzata, testala localmente e quindi eseguine il deployment in un cluster Google Kubernetes Engine (GKE), il tutto direttamente nell'editor di Cloud Shell. Al termine di questo breve tutorial imparerai a creare, modificare ed eseguire il debug di un'app Kubernetes.
Current esegue il deployment delle app e le esegue su GKE
Current, una delle principali challenger bank con sede a New York City, ora ospita la maggior parte delle proprie app in container Docker, inclusa l'API GraphQL business-critical, utilizzando GKE per automatizzare il deployment dei cluster e la gestione delle app containerizzate.
Utilizza Migrate to Containers per spostare e convertire i carichi di lavoro direttamente nei container di GKE. Puoi migrare un'applicazione LAMP Stack a due livelli, con le VM di app e database, da VMware a GKE.
Collabora con un partner di fiducia per ottenere Google Kubernetes Engine on-prem e portare la gestione di altissimo livello di Kubernetes nell'infrastruttura privata. Oppure sfrutta i servizi di migrazione da Google Cloud Marketplace.
Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla versione, sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per Ingress.
Livello gratuito
Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.
Gratis
Kubernetes
Versione Enterprise
Include funzionalità della versione Standard e operazioni multi-team, multi-cluster, self-service, oltre a sicurezza avanzata, mesh di servizi, configurazione e un'esperienza unificata per la console.
0,0083 $
Per vCPU all'ora
Versione Standard
Include gestione del ciclo di vita dei cluster completamente automatizzata, scalabilità automatica di pod e cluster, visibilità dei costi e ottimizzazione automatica dei costi dell'infrastruttura.
0,10 $
Per cluster all'ora
Computing
Modalità Autopilot: CPU, memoria e risorse di computing di cui viene eseguito il provisioning per i tuoi pod.
Modalità Standard: il costo di ciascuna istanza ti viene addebitato in base ai prezzi di Compute Engine.
Consulta i prezzi di Compute Engine
Come funzionano i prezzi di GKE
Dopo aver utilizzato i crediti gratuiti, il costo totale si basa sulla versione, sulla modalità operativa dei cluster, sulle tariffe di gestione dei cluster e sulle tariffe applicabili per Ingress.
Servizio
Descrizione
Prezzo (USD)
Livello gratuito
Il livello gratuito di GKE offre 74,40 $ in crediti mensili per account di fatturazione, che vengono applicati a cluster Autopilot e di zona.
Gratis
Kubernetes
Versione Enterprise
Include funzionalità della versione Standard e operazioni multi-team, multi-cluster, self-service, oltre a sicurezza avanzata, mesh di servizi, configurazione e un'esperienza unificata per la console.
0,0083 $
Per vCPU all'ora
Versione Standard
Include gestione del ciclo di vita dei cluster completamente automatizzata, scalabilità automatica di pod e cluster, visibilità dei costi e ottimizzazione automatica dei costi dell'infrastruttura.
0,10 $
Per cluster all'ora
Computing
Modalità Autopilot: CPU, memoria e risorse di computing di cui viene eseguito il provisioning per i tuoi pod.
Modalità Standard: il costo di ciascuna istanza ti viene addebitato in base ai prezzi di Compute Engine.
Consulta i prezzi di Compute Engine
Calcolatore prezzi
Stima i costi mensili di GKE, inclusi i prezzi e le tariffe specifici per regione.
[{
"type": "thumb-down",
"id": "hardToUnderstand",
"label":"Difficile da capire"
},{
"type": "thumb-down",
"id": "incorrectInformationOrSampleCode",
"label":"Informazioni o codice di esempio errati"
},{
"type": "thumb-down",
"id": "missingTheInformationSamplesINeed",
"label":"Mancano le informazioni o gli esempi di cui ho bisogno"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"Problema di traduzione"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"Altra"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"Facile da capire"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"Il problema è stato risolto"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"Altra"
}]