Panoramica tecnica di GKE Enterprise
GKE Enterprise è la piattaforma di container basata su cloud di Google per eseguire app moderne ovunque e in modo coerente su vasta scala. Questa guida fornisce una panoramica del funzionamento di GKE Enterprise e di come può aiutarti a fornire applicazioni affidabili, scalabili e gestibili.
Perché GKE Enterprise?
In genere, quando le organizzazioni adottano tecnologie cloud-native come container, orchestrazione dei container e mesh di servizi, raggiungono un punto in cui l'esecuzione di un singolo cluster non è più sufficiente. Esistono diversi motivi per cui le organizzazioni scelgono di implementare più cluster per raggiungere i propri obiettivi tecnici e commerciali, ad esempio separare gli ambienti di produzione da quelli non di produzione, le varie limitazioni normative o separare i servizi tra livelli, impostazioni internazionali o team. Tuttavia, l'utilizzo di più cluster presenta difficoltà e overhead in termini di configurazione, sicurezza e gestione coerenti: ad esempio, la configurazione manuale di un cluster alla volta rischia di causare interruzioni e può essere difficile capire esattamente dove si verificano gli errori.
Le cose possono diventare ancora più complesse (e costose) quando i cluster non si trovano tutti in un'unica posizione. Molte organizzazioni che utilizzano Google Cloud vogliono o devono anche eseguire carichi di lavoro nei propri data center, nelle proprie fabbriche, nei propri negozi di vendita al dettaglio e persino in altri cloud pubblici, ma non vogliono creare nuove piattaforme di container in tutte queste località o ripensare a come configurare, proteggere, monitorare e ottimizzare i carichi di lavoro dei container a seconda di dove vengono eseguiti, con la possibilità di ambienti incoerenti, rischi di sicurezza e di configurazione errata e complessità operativa.
Ad esempio:
- Un istituto finanziario sta creando una piattaforma di banking digitale su Google Cloud e richiede configurazioni coerenti, applicazione rigorosa di criteri di sicurezza e visibilità approfondita su come comunicano più app. Una grande azienda di vendita al dettaglio che crea una piattaforma di e-commerce moderna ha gli stessi requisiti. Entrambe le aziende gestiscono più cluster in più regioni in Google Cloud utilizzando GKE.
- Un altro istituto finanziario globale sta creando app complesse di gestione del rischio, app di trasferimento interbancario e molti altri carichi di lavoro sensibili, alcuni dei quali devono rimanere dietro il firewall aziendale e altri di cui è stato eseguito il deployment su GKE su Google Cloud.
- Un importante rivenditore di farmacie sta creando nuove app per la pianificazione dei vaccini, l'invio di messaggi ai clienti e il coinvolgimento digitale per modernizzare le operazioni delle farmacie e creare un'esperienza in negozio più personalizzata. Queste app richiedono piattaforme di contenitori in negozio integrate con servizi ospitati su Google Cloud, come BigQuery e Retail Search
- Un'azienda di media e intrattenimento ha bisogno di un ambiente di container coerente in 30 stadi, tutti collegati e gestiti da Google Cloud , per raccogliere e analizzare terabyte di statistiche delle partite e per aumentare il coinvolgimento dei fan sia all'interno dello stadio sia virtualmente.
- Una azienda di produzione di hardware deve testare e ottimizzare la qualità dei prodotti e la sicurezza dei lavoratori in fabbrica analizzando i dati con una latenza molto bassa per prendere decisioni quasi in tempo reale, consolidando al contempo i dati in Google Cloud per analisi a lungo termine.
- Una società di software e internet che offre una piattaforma di integrazione in un modello Software as a Service (SaaS) deve offrire la propria piattaforma su diversi cloud pubblici principali per eseguirla dove i clienti hanno bisogno di prossimità ai servizi cloud nativi. L'azienda ha bisogno di un modo unificato e coerente per eseguire il provisioning, la configurazione, la protezione e il monitoraggio degli ambienti di container in più cloud pubblici da un piano di gestione, per evitare l'overhead operativo della gestione di ogni ambiente cloud con diversi strumenti di gestione nativi.
GKE Enterprise può aiutare tutte queste organizzazioni fornendo una piattaforma coerente che consente loro di:
- Modernizza le applicazioni e l'infrastruttura in loco
- Crea un modello operativo cloud unificato (pannello centralizzato) per creare, aggiornare e ottimizzare i cluster di container ovunque si trovino
- Scala applicazioni multi-cluster di grandi dimensioni come parchi risorse, raggruppamenti logici di ambienti simili, con sicurezza, configurazione e gestione dei servizi coerenti
- Applica governance e sicurezza coerenti da un control plane unificato
A tal fine, offre strumenti e funzionalità che aiutano a governare, gestire e utilizzare i carichi di lavoro containerizzati su larga scala, consentendo di adottare best practice e principi che abbiamo appreso dall'utilizzo dei servizi di Google.
Nozioni di base su GKE Enterprise
Le funzionalità di GKE Enterprise si basano sull'idea del parco risorse: un raggruppamento logico di cluster Kubernetes che possono essere gestiti insieme. Un parco può essere costituito interamente da cluster GKE su Google Cloudoppure includere cluster esterni a Google Cloud in esecuzione on-premise e su altri cloud pubblici come AWS e Azure.
Dopo aver creato un parco risorse, puoi utilizzare le funzionalità dedicate ai parchi risorse di GKE Enterprise per aggiungere ulteriore valore e semplificare il lavoro su più cluster e provider di infrastrutture:
- Gli strumenti di gestione della configurazione e dei criteri ti aiutano a lavorare più facilmente su larga scala, aggiungendo e aggiornando automaticamente la stessa configurazione, le stesse funzionalità e gli stessi criteri di sicurezza in modo coerente in tutto il parco risorse, indipendentemente dalla posizione dei cluster.
- Le funzionalità di networking a livello di parco risorse ti aiutano a gestire il traffico nell'intero parco risorse, tra cui Ingress multi-cluster per le applicazioni che si estendono su più cluster e le funzionalità di gestione del traffico del mesh di servizi.
- Le funzionalità di gestione delle identità ti aiutano a configurare in modo coerente l'autenticazione per gli utenti e i carichi di lavoro del parco risorse.
- Le funzionalità di osservabilità ti consentono di monitorare e risolvere i problemi dei cluster e delle applicazioni del tuo parco risorse, inclusi l'integrità, l'utilizzo delle risorse e la security posture.
- Gli strumenti di gestione dei team ti consentono di assicurarti che i tuoi team abbiano accesso alle risorse di infrastruttura necessarie per eseguire i loro carichi di lavoro e di fornire ai team una visualizzazione basata sul team delle risorse e dei carichi di lavoro.
- Per le applicazioni basate su microservizi in esecuzione nel tuo parco risorse, Cloud Service Mesh fornisce potenti strumenti per la sicurezza, il networking e l'osservabilità delle applicazioni nel tuo mesh.
Puoi attivare l'intera piattaforma GKE Enterprise per utilizzare tutte le funzionalità disponibili, incluse quelle multicloud e cloud ibrido, oppure puoi creare un parco risorse solo su Google Cloud e pagare le funzionalità aziendali aggiuntive in base alle tue esigenze. GKE Enterprise utilizza tecnologie open source standard di settore e supporta più provider di infrastrutture, offrendo la flessibilità di utilizzarlo in modo da soddisfare le esigenze aziendali e organizzative.
Come funzionano i parchi risorse
I parchi risorse consentono a GKE Enterprise di raggruppare e normalizzare logicamente i cluster Kubernetes, semplificando l'amministrazione dell'infrastruttura. L'adozione dei parchi risorse aiuta la tua organizzazione a migliorare il livello di gestione dai singoli cluster ai gruppi di cluster, con un'unica visualizzazione dell'intero parco risorse nella console Google Cloud . Tuttavia, i parchi risorse sono più che semplici gruppi di cluster. I principi di identità e fiducia assunti all'interno di un parco risorse ti consentono di utilizzare l'intera gamma di funzionalità abilitate per il parco risorse.
Il primo di questi principi è l'uguaglianza. Ciò significa che, all'interno di un parco risorse di cluster, alcuni oggetti Kubernetes, come gli spazi dei nomi in cluster diversi, vengono trattati come se fossero la stessa cosa quando hanno lo stesso nome. Questa normalizzazione semplifica la gestione di molti cluster contemporaneamente e viene utilizzata dalle funzionalità abilitate per il parco risorse di GKE Enterprise. Ad esempio, puoi applicare un criterio di sicurezza con Policy Controller a tutti i servizi del parco risorse nello spazio dei nomi foo, indipendentemente dai cluster in cui si trovano o dalla loro posizione.
I parchi risorse presuppongono anche l'identicità del servizio (tutti i servizi in uno spazio dei nomi con lo stesso nome possono essere trattati come lo stesso servizio, ad esempio a fini di gestione del traffico) e l'identicità dell'identità (i servizi e i carichi di lavoro all'interno di un parco risorse possono sfruttare un'identità comune per l'autenticazione e l'autorizzazione). Il principio di identità del parco risorse fornisce anche alcune indicazioni importanti su come configurare spazi dei nomi, servizi e identità, seguendo le best practice già implementate da molte organizzazioni e da Google.
Un altro principio chiave è la fiducia: l'identità del servizio, l'identità del carico di lavoro e l'identità del mesh si basano tutte su un principio di elevata fiducia tra i membri di un parco risorse. Questo livello di attendibilità consente di migliorare la gestione di queste risorse a livello di parco risorse, anziché gestire ogni cluster separatamente, e rende meno importante il confine del cluster.
La modalità di organizzazione dei parchi dipende dalle tue esigenze organizzative e tecniche. Ogni parco risorse è associato a un progetto specifico Google Cloud , noto come progetto host del parco risorse, che utilizzi per gestire e visualizzare il parco risorse, ma può includere cluster di altri progetti. Ad esempio, puoi avere parchi separati per gli ambienti di produzione, di test e di sviluppo oppure parchi separati per diversi settori di attività (diversi team come tenant della tua infrastruttura possono essere gestiti all'interno dei parchi utilizzando gli scope). I cluster con grandi quantità di comunicazioni tra servizi traggono il massimo vantaggio dalla gestione collettiva in un parco risorse. I cluster nello stesso ambiente (ad esempio l'ambiente di produzione) devono trovarsi nello stesso parco risorse. In genere consigliamo la dimensione del parco risorse più grande che consenta attendibilità e identità tra i servizi, tenendo presente che Cloud Service Mesh, se scegli di utilizzarlo, ti consente di attivare un controllo dell'accesso ai servizi più granulare all'interno del parco risorse.
Scopri di più:
Cluster Kubernetes ovunque
Kubernetes è al centro di GKE Enterprise, con una serie di opzioni di cluster Kubernetes tra cui scegliere quando crei il tuo parco risorse:
- Google Kubernetes Engine (GKE) è l'implementazione di Kubernetes gestita di Google, con le seguenti opzioni disponibili per gli utenti di GKE Enterprise:
- In Google Cloud, GKE ha un piano di controllo ospitato sul cloud e cluster composti da istanze Compute Engine. Sebbene GKE su Google Cloud da solo ti aiuti a eseguire il deployment, scalare e gestire automaticamente Kubernetes, raggruppare i cluster GKE in un parco risorse ti consente di lavorare più facilmente su larga scala e di utilizzare le funzionalità di GKE Enterprise oltre alle potenti funzionalità di gestione dei cluster già offerte da GKE.
- Al di fuori di Google Cloud, GKE è esteso per l'utilizzo con altri provider di infrastrutture, tra cui Azure, AWS e il tuo hardware on-premise (su VMware o bare metal). In queste opzioni, il piano di controllo Kubernetes fornito da Google viene eseguito nel tuo data center o provider cloud insieme ai tuoi nodi cluster, con i cluster collegati al progetto host del parco risorse in Google Cloud.
- I deployment collegati a Google Distributed Cloud (in precedenza Distributed Cloud) ti consentono anche di aggiungere cluster GKE on-premise al tuo parco risorse, questa volta in esecuzione su hardware fornito e gestito da Google e supportando un sottoinsieme di funzionalità di GKE Enterprise.
- I cluster GKE non sono l'unica opzione. GKE Enterprise offre anche la possibilità di registrare nel tuo parco risorse cluster Kubernetes di terze parti conformi, come i cluster EKS e AKS, noti come cluster collegati. Con questa opzione, continui a eseguire i carichi di lavoro esistenti dove si trovano, aggiungendo valore con un sottoinsieme di funzionalità di GKE Enterprise. GKE Enterprise non gestisce i componenti del piano di controllo o dei nodi di Kubernetes, ma solo i servizi GKE Enterprise in esecuzione su questi cluster.
Per tutti i cluster basati su GKE, inclusi i cloud on-premise e pubblici, GKE Enterprise fornisce strumenti per la gestione e il ciclo di vita dei cluster (creazione, aggiornamento, eliminazione e upgrade), tra cui utilità a riga di comando e, per alcuni tipi di cluster, la gestione dalla console Google Cloud .
Configurazione cluster
Ovunque si trovino i tuoi cluster, Config Sync fornisce un modo coerente per gestire la configurazione dei cluster nell'intero parco risorse, inclusi i cluster collegati. Config Sync utilizza l'approccio "configurazione come dati": lo stato desiderato dell'ambiente viene definito in modo dichiarativo, mantenuto come un'unica fonte attendibile sotto il controllo della versione e applicato direttamente con risultati ripetibili. Config Sync monitora un repository Git centrale contenente la configurazione e applica automaticamente eventuali modifiche ai cluster di destinazione specificati, indipendentemente da dove vengono eseguiti. Qualsiasi file YAML o JSON che può essere applicato con i comandi kubectl può essere gestito con Config Sync e applicato a qualsiasi cluster Kubernetes.
Migrazione e VM
Per le organizzazioni che vogliono eseguire la migrazione delle proprie applicazioni in container e Kubernetes nell'ambito del processo di modernizzazione, GKE Enterprise include Migrate to Containers, con strumenti per convertire i carichi di lavoro basati su VM in container eseguiti su GKE. Sulle piattaforme GKE Enterprise on bare metal (Google Distributed Cloud on bare metal e Google Distributed Cloud connected), le organizzazioni possono anche utilizzare il runtime VM su Google Distributed Cloud per eseguire VM su Kubernetes nello stesso modo in cui eseguono i container, continuando a utilizzare i carichi di lavoro basati su VM esistenti, nonché a sviluppare ed eseguire nuove applicazioni basate su container. Quando è tutto pronto, possono eseguire la migrazione di questi carichi di lavoro basati su VM nei container e continuare a utilizzare gli stessi strumenti di gestione di GKE Enterprise.
Scopri di più:
- GKE su Google Cloud
- Cluster GKE esterni a Google Cloud
- Cluster collegati
- Google Distributed Cloud connected
- Config Sync
Funzionalità di GKE Enterprise
Il resto di questa guida illustra le funzionalità di GKE Enterprise che ti aiutano a gestire i parchi risorse e le applicazioni che vengono eseguite su questi. Puoi trovare un elenco completo delle funzionalità disponibili per ogni tipo di cluster Kubernetes supportato nelle opzioni di deployment di GKE Enterprise.
Networking, autenticazione e sicurezza
Dopo aver creato il tuo parco risorse, GKE Enterprise ti aiuta a gestire il traffico, l'autenticazione e controllo dell'accesso#39;accesso e a applicare in modo coerente i criteri di sicurezza e conformità in tutto il parco risorse.
Connessione al tuo parco risorse
Per gestire la connessione a Google nei parchi ibridi e multicloud, Google fornisce un deployment Kubernetes chiamato agente Connect. Una volta installato in un cluster nell'ambito della registrazione del parco, l'agente stabilisce una connessione tra il cluster esterno Google Cloud e il suo progetto di parco host Google Cloud , consentendoti di gestire i tuoi cluster e i tuoi carichi di lavoro da Google e di utilizzare i servizi Google.
Negli ambienti on-premise, la connettività a Google può utilizzare internet pubblico, una VPN ad alta disponibilità, Public Interconnect o Dedicated Interconnect, a seconda dei requisiti di latenza, sicurezza e larghezza di banda delle applicazioni quando interagiscono con Google Cloud.
Scopri di più:
Bilanciamento del carico
Per gestire il traffico verso e all'interno del tuo parco risorse, GKE Enterprise fornisce le seguenti soluzioni di bilanciamento del carico:
- I cluster GKE su Google Cloud possono utilizzare le seguenti opzioni:
- Per impostazione predefinita, GKE utilizza bilanciatori del carico di rete passthrough esterni per il livello 4 e bilanciatori del carico delle applicazioni esterni per il livello 7. Entrambi sono servizi gestiti e non richiedono alcuna configurazione o provisioning aggiuntivo da parte tua.
- Ingress multi-cluster ti consente di eseguire il deployment di un bilanciatore del carico che fornisce un'applicazione su più cluster del parco risorse.
- I cluster GKE on-premise ti consentono di scegliere tra una serie di modalità di bilanciamento del carico in base alle tue esigenze, tra cui un bilanciatore del carico MetalLB in bundle e la possibilità di configurare manualmente il bilanciamento del carico per utilizzare le tue soluzioni esistenti.
- Google Distributed Cloud connected include il bilanciamento del carico MetalLB in bundle
- I cluster GKE su altri cloud pubblici utilizzano bilanciatori del carico nativi della piattaforma
Scopri di più:
- Ingress multi-cluster
- Bilanciamento del carico per:
- Google Distributed Cloud:
- GKE su AWS
- GKE su Azure
Autenticazione e controllo degli accessi
Una sfida significativa quando si lavora con più cluster su più fornitori di infrastruttura è la gestione dell'autenticazione e dell'autorizzazione. Per l'autenticazione ai cluster del tuo parco risorse, GKE Enterprise offre opzioni per un'autenticazione coerente, semplice e sicura quando interagisci con i cluster dalla riga di comando con kubectl
e dalla console Google Cloud .
- Utilizza l'identità Google:Connect Gateway consente agli utenti e ai service account di autenticarsi nei cluster di tutto il tuo parco risorse con i propri ID Google, indipendentemente da dove si trovano i cluster. Puoi utilizzare questa funzionalità per connetterti direttamente ai cluster o sfruttarla con le pipeline di compilazione e altre automazioni DevOps.
- Utilizza l'identità di terze parti:GKE Identity Service di GKE Enterprise ti consente di configurare l'autenticazione con provider di identità di terze parti, consentendo ai tuoi team di continuare a utilizzare nomi utente, password e gruppi di sicurezza esistenti da provider OIDC (e LDAP, se supportati) come Microsoft AD FS e Okta nell'intero parco risorse.
Per un cluster puoi configurare tutti i provider di identità supportati che vuoi.
Dopo aver configurato l'autenticazione, puoi utilizzare controllo dell'accesso basato su ruoli (RBAC) di Kubernetes standard per autorizzare gli utenti autenticati a interagire con i tuoi cluster, nonché Identity and Access Management per controllare l'accesso ai servizi Google come Connect Gateway.
Per i carichi di lavoro in esecuzione sui tuoi cluster, GKE Enterprise fornisce un'identità per i carichi di lavoro a livello di parco risorse. Questa funzionalità consente ai workload sui cluster membri del parco risorse di utilizzare le identità di un pool di identità dei carichi di lavoro a livello di parco risorse durante l'autenticazione ai servizi esterni, come le API Cloud. In questo modo, è più semplice configurare l'accesso di un'applicazione a questi servizi rispetto a dover configurare l'accesso cluster per cluster. Ad esempio, se hai un'applicazione con un backend di cui è stato eseguito il deployment in più cluster nello stesso parco risorse e che deve autenticarsi in un'API Google, puoi configurare l'applicazione in modo che tutti i servizi nello spazio dei nomi "backend" possano utilizzare l'API.
Scopri di più:
- Eseguire l'autenticazione con l'identità Google
- Eseguire l'autenticazione con un'identità di terze parti
- Lavorare con i cluster dalla console Google Cloud
- Lavorare con i cluster dalla riga di comando
- Utilizzare la federazione di Workload Identity del parco risorse
Gestione dei criteri
Un'altra sfida quando si lavora con più cluster è l'applicazione di criteri di conformità alle normative e alla sicurezza coerenti in tutto il parco risorse. Molte organizzazioni hanno requisiti di sicurezza e conformità rigorosi, come quelli che proteggono le informazioni dei consumatori nelle applicazioni di servizi finanziari, e devono essere in grado di soddisfarli su larga scala.
Per aiutarti a farlo, Policy Controller applica la logica di business personalizzata a ogni richiesta dell'API Kubernetes ai cluster pertinenti. Questi criteri agiscono come "barriere" e impediscono qualsiasi modifica alla configurazione dell'API Kubernetes che violi i controlli di sicurezza, operativi o di conformità. Puoi impostare criteri per bloccare attivamente le richieste API non conformi nel tuo parco risorse o semplicemente per controllare la configurazione dei tuoi cluster e segnalare le violazioni. Le regole comuni di sicurezza e conformità possono essere facilmente espresse utilizzando l'insieme di regole integrato di Policy Controller oppure puoi scrivere le tue regole utilizzando il linguaggio di criteri estensibile, basato sul progetto open source Open Policy Agent.
Scopri di più:
Sicurezza a livello di applicazione
Per le applicazioni in esecuzione nel tuo parco risorse, GKE Enterprise fornisce funzionalità di controllo dell'accesso e di autenticazione di difesa in profondità, tra cui:
- Autorizzazione binaria, che ti consente di garantire che venga eseguito il deployment solo di immagini attendibili nei cluster del tuo parco.
- Criterio di rete Kubernetes, che consente di specificare quali pod sono autorizzati a comunicare tra loro e con altri endpoint di rete.
- Il controllo dell'accesso ai servizi di Cloud Service Mesh, che ti consente di configurare il controllo dell'accesso granulare per i servizi mesh in base agli account di servizio e ai contesti delle richieste.
- L'autorità di certificazione (CA) Cloud Service Mesh, che genera e ruota automaticamente i certificati in modo da poter attivare facilmente l'autenticazione TLS reciproca (mTLS) tra i tuoi servizi.
Osservabilità
Un aspetto fondamentale per far funzionare e gestire i cluster su larga scala è la possibilità di monitorare facilmente i cluster e le applicazioni del tuo parco risorse, inclusa la loro integrità, l'utilizzo delle risorse e la security posture.
GKE Enterprise nella console Google Cloud
La console Google Cloud è l'interfaccia web di Google Cloudche puoi utilizzare per gestire i tuoi progetti e le tue risorse. GKE Enterprise offre funzionalità aziendali e una visualizzazione strutturata dell'intero parco risorse nelle pagine della console GKEGoogle Cloud , fornendo un'interfaccia integrata che ti aiuta a gestire le tue applicazioni e risorse in un'unica posizione. Le pagine della dashboard ti consentono di visualizzare i dettagli di alto livello, nonché di visualizzare in dettaglio i problemi fino a quando necessario.
- Panoramica:la panoramica di primo livello fornisce una panoramica dell'utilizzo delle risorse del tuo parco risorse in base alle informazioni fornite tramite Cloud Monitoring e mostra l'utilizzo aggregato di CPU, memoria e disco per parco risorse e per cluster, nonché la copertura di Policy Controller e Config Sync a livello di parco risorse.
- Gestione dei cluster: la visualizzazione Cluster di GKE Enterprise fornisce una console sicura per visualizzare lo stato di tutti i cluster del progetto e del parco risorse, inclusa l'integrità del cluster, registrare i cluster nel parco risorse e creare nuovi cluster per il parco risorse (soloGoogle Cloud ). Per informazioni su cluster specifici, puoi visualizzare in dettaglio questa visualizzazione o visitare altre dashboard di GKE per ottenere ulteriori dettagli sui nodi e sui carichi di lavoro del cluster.
- Panoramica dei team: se hai configurato team per il tuo parco risorse, la panoramica dei team fornisce l'utilizzo delle risorse, i tassi di errore e altre metriche aggregate per team, consentendo ad amministratori e membri del team di visualizzare e risolvere più facilmente gli errori.
- Gestione delle funzionalità:la visualizzazione Gestione delle funzionalità ti consente di visualizzare lo stato delle funzionalità di GKE Enterprise per i cluster del tuo parco risorse.
- Service Mesh: se utilizzi Cloud Service Mesh su Google Cloud, la visualizzazione Service Mesh fornisce l'osservabilità dell'integrità e delle prestazioni dei tuoi servizi. Cloud Service Mesh raccoglie e aggrega i dati relativi a ogni richiesta e risposta del servizio, il che significa che non devi instrumentare il codice per raccogliere i dati di telemetria o configurare manualmente dashboard e grafici. Cloud Service Mesh carica automaticamente metriche e log in Cloud Monitoring e Cloud Logging per tutto il traffico all'interno del cluster. Questa telemetria dettagliata consente agli operatori di osservare il comportamento del servizio e di risolvere i problemi, gestire e ottimizzare le applicazioni.
- Postura di sicurezza: la visualizzazione Postura di sicurezza mostra suggerimenti attendibili e strategici per migliorare la postura di sicurezza del tuo parco risorse.
- Gestione della configurazione:la visualizzazione Config fornisce una panoramica dello stato di configurazione di tutti i cluster del parco risorse con Config Sync abilitato e ti consente di aggiungere rapidamente la funzionalità ai cluster che non sono ancora stati configurati. Puoi monitorare facilmente le modifiche alla configurazione e vedere quale ramo e tag di commit sono stati applicati a ciascun cluster. I filtri flessibili semplificano la visualizzazione dello stato di implementazione della configurazione per cluster, ramo o tag.
- Gestione dei criteri:la vista Criteri mostra quanti cluster nel tuo parco risorse hanno Policy Controller abilitato, fornisce una panoramica di eventuali violazioni della conformità e ti consente di aggiungere la funzionalità ai cluster del parco risorse.
Logging e monitoraggio
Per informazioni più dettagliate sui cluster e sui relativi carichi di lavoro, puoi utilizzare Cloud Logging e Cloud Monitoring. Cloud Logging fornisce un luogo unificato per archiviare e analizzare i dati dei log, mentre Cloud Monitoring raccoglie e archivia automaticamente i dati sulle prestazioni, oltre a fornire strumenti di visualizzazione e analisi dei dati. Per impostazione predefinita, la maggior parte dei tipi di cluster GKE Enterprise invia informazioni di logging e monitoraggio per i componenti di sistema (ad esempio i carichi di lavoro negli spazi dei nomi kube-system
e gke-connect
)
a Cloud Monitoring e Cloud Logging. Puoi configurare ulteriormente Cloud Monitoring e Cloud Logging per ottenere informazioni sui tuoi carichi di lavoro delle applicazioni, creare dashboard che includono più tipi di metriche, creare avvisi e altro ancora.
A seconda delle esigenze della tua organizzazione e del tuo progetto, GKE Enterprise supporta anche l'integrazione con altri strumenti di osservabilità, tra cui Prometheus e Grafana open source, nonché strumenti di terze parti come Elastic e Splunk.
Scopri di più:
- Cloud Logging
- Cloud Monitoring
- Log disponibili su Google Cloud
- Metriche disponibili su Google Cloud
- Log e metriche disponibili su Google Distributed Cloud (solo software):
- Log e metriche disponibili su GKE su altri cloud pubblici:
- Logging e monitoraggio su GKE su Azure
- Logging e monitoraggio su GKE su AWS
- Log e metriche disponibili sui cluster collegati:
- Logging e monitoraggio sui cluster collegati ad AKS
- Logging e monitoraggio sui cluster collegati a EKS
- Logging e monitoraggio su altri cluster collegati
Gestione servizio
In Kubernetes, un servizio è un modo astratto per esporre un'applicazione in esecuzione su un insieme di pod come servizio di rete, con un singolo indirizzo DNS per il traffico verso i carichi di lavoro del servizio. In un'architettura di microservizi moderna, una singola applicazione può essere composta da numerosi servizi e ogni servizio può avere più versioni di cui viene eseguito il deployment contemporaneamente. La comunicazione tra servizi in questo tipo di architettura avviene sulla rete, pertanto i servizi devono essere in grado di gestire le idiosincrasie della rete e altri problemi di infrastruttura sottostante.
Per semplificare la gestione dei servizi nel tuo parco risorse, puoi utilizzare Cloud Service Mesh. Cloud Service Mesh si basa su Istio, un'implementazione open source di un livello di infrastruttura del mesh di servizi. I mesh di servizi risolvono i problemi comuni legati all'esecuzione di un servizio, come monitoraggio, networking e sicurezza, con strumenti coerenti e potenti, consentendo agli sviluppatori e agli operatori di servizi di concentrarsi sulla creazione e sulla gestione delle loro applicazioni. Con Cloud Service Mesh, queste funzioni vengono rimosse dal contenitore principale dell'applicazione e implementate in un proxy out-of-process comune fornito come contenitore separato nello stesso pod. Questo pattern disaccoppia l'applicazione o la logica di business dalle funzioni di rete e consente agli sviluppatori di concentrarsi sulle funzionalità necessarie per l'attività. Le reti mesh di servizi consentono inoltre ai team di operazioni e di sviluppo di disaccoppiare il proprio lavoro.
Cloud Service Mesh offre molte funzionalità, oltre a tutte quelle di Istio:
- Le metriche e i log dei servizi per tutto il traffico all'interno del cluster del tuo mesh vengono importati automaticamente in Google Cloud.
- Le dashboard generate automaticamente mostrano la telemetria in dettaglio nella dashboard di Cloud Service Mesh, per consentirti di esaminare in dettaglio le metriche e i log, filtrare e suddividere i dati in base a una vasta gamma di attributi.
- Panoramica delle relazioni tra servizi: scopri cosa si connette a ciascun servizio e i servizi di cui dipende.
- Proteggi il traffico tra servizi: l'autorità di certificazione (CA) Cloud Service Mesh genera e ruota automaticamente i certificati in modo da poter attivare facilmente l'autenticazione TLS reciproca (mTLS) con i criteri Istio.
- Visualizza rapidamente la posizione della sicurezza delle comunicazioni non solo del tuo servizio, ma anche delle sue relazioni con altri servizi.
- Analizza più a fondo le metriche del servizio e combinale con altre metriche di Google Cloud utilizzando Cloud Monitoring.
- Ottieni informazioni chiare e semplici sullo stato del tuo servizio con gli obiettivi del livello di servizio (SLO), che ti consentono di definire e inviare facilmente avvisi in base ai tuoi standard di stato del servizio.
Cloud Service Mesh ti consente di scegliere tra un piano di controllo del mesh di servizi completamente gestito in Google Cloud (solo per i mesh in esecuzione su cluster membri del parco su Google Cloud ) o un piano di controllo in cluster che devi installare autonomamente. Puoi scoprire di più sulle funzionalità disponibili per ogni opzione nella documentazione di Cloud Service Mesh.
Scopri di più:
Passaggi successivi
- Consulta le nostre guide alla configurazione per scoprire come configurare GKE Enterprise.
- Consulta le opzioni di deployment di GKE Enterprise per informazioni dettagliate sulle funzionalità enterprise disponibili per la configurazione scelta.
- Consulta la pagina Prezzi di GKE Enterprise per scoprire le opzioni di prezzo.