Panoramica di Google Distributed Cloud (solo software) per bare metal

Google Distributed Cloud è la nostra soluzione che estende l'infrastruttura e i servizi di Google Cloud nel tuo data center. Offriamo Google Distributed Cloud in configurazioni connesse e con air gap in esecuzione su hardware fornito da Google. Offriamo anche Google Distributed Cloud come prodotto solo software che viene eseguito sul tuo hardware. Il software Google Distributed Cloud può essere installato su VMware o Bare Metal. Questa guida è dedicata al software Google Distributed Cloud che viene eseguito direttamente sulle tue macchine bare metal.

Google Distributed Cloud è basato su Google Kubernetes Engine (GKE), con il suo pacchetto Kubernetes che estende GKE per l'utilizzo in un ambiente on-premise. Con Google Distributed Cloud puoi creare, gestire ed eseguire l'upgrade dei cluster GKE on-premise utilizzando le funzionalità di Google Cloud, nonché eseguire il deployment e gestire applicazioni containerizzate sui tuoi cluster su larga scala utilizzando l'infrastruttura di Google.

L'installazione del software Google Distributed Cloud ti consente di utilizzare GKE Enterprise, un livello enterprise per GKE con funzionalità potenti per la regolazione, la gestione e il funzionamento dei carichi di lavoro containerizzati su larga scala. Per saperne di più su GKE Enterprise e sulle funzionalità disponibili su bare metal, consulta la panoramica tecnica di GKE Enterprise.

Perché utilizzare Google Distributed Cloud su Bare Metal?

L'esecuzione del software Google Distributed Cloud su bare metal sfrutta l'infrastruttura aziendale esistente e ti aiuta a modernizzare le applicazioni durante il loro ciclo di vita.

Integra il tuo nodo

Con un'installazione solo software su bare metal di Google Distributed Cloud, esegui il deployment delle applicazioni direttamente sulla tua infrastruttura hardware, offrendoti le migliori prestazioni e flessibilità. Hai il controllo diretto su scala delle applicazioni, sicurezza e latenza di rete. Puoi inoltre usufruire dei vantaggi delle applicazioni containerizzate tramite i componenti GKE, tra cui le potenti funzionalità del livello enterprise.

Prestazioni migliorate e costi ridotti

Google Distributed Cloud gestisce il deployment e l'integrità delle applicazioni nei tuoi data center aziendali esistenti per un funzionamento più efficiente. Inoltre, puoi eseguire i container a livello perimetrale della rete, in modo che le app di analisi possano essere eseguite con prestazioni complete.

L'utilizzo di Google Distributed Cloud su bare metal al posto delle macchine virtuali offre la possibilità di gestire i container di applicazioni su un'ampia gamma di tipi di hardware ottimizzati per le prestazioni, come GPU e SSD. L'esecuzione di Google Distributed Cloud su bare metal consente inoltre l'accesso diretto delle applicazioni all'hardware.

Sicurezza compatibile

Poiché controlli l'ambiente dei nodi, puoi ottimizzare la rete, l'hardware e le applicazioni in base ai tuoi requisiti specifici. Di conseguenza, puoi controllare direttamente la sicurezza del sistema, senza preoccuparti della compatibilità con le macchine virtuali e i sistemi operativi.

Deployment dell'applicazione monitorato

Google Distributed Cloud fornisce il monitoraggio avanzato dell'integrità e delle prestazioni del tuo ambiente. Puoi regolare più facilmente la scala delle applicazioni mantenendo l'affidabilità nonostante le fluttuazioni del carico di lavoro e del traffico di rete.

Gestisci il monitoraggio, il logging e l'analisi di cluster e carichi di lavoro tramite Connect.

Latenza e flessibilità di rete

Poiché gestisci i tuoi requisiti di rete, la rete può essere ottimizzata per una bassa latenza. Questa ottimizzazione della rete può essere fondamentale per le prestazioni nell'analisi commerciale o finanziaria e in altre applicazioni sul perimetro della rete o aziendali.

Disponibilità elevata

Google Distributed Cloud include il supporto per più nodi di controllo in un cluster. Se un nodo del piano di controllo non funziona, puoi comunque amministrare il tuo ambiente.

Design e controllo sicuri

La sicurezza dell'infrastruttura può essere personalizzata in base alle tue esigenze, con connessioni minime alle risorse esterne. Ma soprattutto, non c'è ulteriore complessità per le VM quando si esegue il deployment dei sistemi di sicurezza e si mantiene il controllo completo del sistema operativo quando si interagisce con i sistemi di sicurezza esistenti.

Google Distributed Cloud opera con connessioni leggere e sicure alle API di Google. Con Connect e Cloud Monitoring puoi gestire cluster e applicazioni da una posizione centralizzata. Questa centralizzazione consente inoltre di ottimizzare l'esecuzione dei deployment e di risolvere i problemi in modo più efficace all'assistenza Google Cloud.

Controlli preflight al momento dell'installazione

Con Google Distributed Cloud, i tuoi cluster GKE vengono eseguiti su sistemi Linux open source e aziendali, nonché su un'infrastruttura hardware minima, perciò sono flessibili nel tuo ambiente. Include inoltre vari controlli preliminari per garantire il successo delle configurazioni e delle installazioni.

Deployment delle applicazioni e bilanciamento del carico

Google Distributed Cloud include meccanismi di bilanciamento del carico di livello 4 e 7 al momento della creazione del cluster.

Affidabilità di etcd migliorata

Per monitorare le dimensioni e la deframmentazione dei database etcd, i piani di controllo Google Distributed Cloud includono un pod etcddefrag. Il pod etcddefrag recupera spazio di archiviazione da database etcd di grandi dimensioni e recupera etcd quando lo spazio su disco viene superato.

Come funziona

Google Distributed Cloud estende Google Kubernetes Engine (GKE) per consentirti di creare cluster GKE sui tuoi server Linux on-premise. Puoi gestire questi cluster on-premise in Google Cloud insieme ai normali cluster GKE e a quelli in altri ambienti come parte di un parco risorse.

I cluster GKE tradizionali vengono eseguiti in Google Cloud, dove il piano di controllo Kubernetes e l'infrastruttura di rete sono gestiti da Google Cloud. Poiché i cluster Google Distributed Cloud vengono eseguiti nel tuo data center, oltre al software GKE forniamo alcuni software per il piano di amministrazione e controllo. Il software eseguito nel tuo data center viene scaricato nell'ambito dei processi di installazione e upgrade.

Il seguente diagramma mostra il risultato semplificato di un'installazione completata:

Diagramma di un cluster di amministrazione e di un cluster utente
Architettura di Google Distributed Cloud on bare metal con un cluster di amministrazione e un cluster utente (fai clic per ingrandire)

Componenti chiave

I seguenti componenti costituiscono un'installazione solo software su bare metal di Google Distributed Cloud:

  • Il cluster di amministrazione è costituito da uno o più nodi del piano di controllo. Ogni nodo è una macchina fisica che esegue un sistema operativo Linux supportato. Il deployment standard è costituito da un cluster di amministrazione che gestisce il ciclo di vita di uno o più cluster utente tramite Kubernetes Resource Management (KRM). Ogni macchina nodo nell'installazione ha il proprio indirizzo IP.

  • In un cluster utente vengono eseguiti i carichi di lavoro che implementano le applicazioni, come in GKE su Google Cloud. Ogni cluster utente è costituito da almeno un nodo del piano di controllo e un nodo worker.

  • La workstation di amministrazione è una macchina separata (in genere) che include gli strumenti e gli artefatti del cluster, come i file di configurazione. I creatori e gli sviluppatori di cluster utilizzano questi strumenti e artefatti per gestire i propri cluster GKE on-premise, con le autorizzazioni appropriate:

    • L'esecuzione di bmctl dalla workstation di amministrazione consente di creare e aggiornare i cluster ed eseguire altre attività amministrative

    • L'esecuzione di kubectl dalla workstation di amministrazione ti consente di interagire con i cluster di amministrazione e utente, inclusi il deployment e la gestione dei carichi di lavoro

  • L'API GKE On-Prem è ospitata da Google Cloud per la gestione del ciclo di vita dei cluster. Utilizzi i client API (console Google Cloud, Google Cloud CLI e Terraform) per creare e gestire il ciclo di vita dei tuoi cluster on-premise, come alternativa all'accesso alla workstation di amministrazione per gestire i cluster con l'interfaccia a riga di comando bmctl.

  • La console fornisce anche un'interfaccia web per il tuo progetto Google Cloud, inclusi i cluster on-premise. La console mostra le metriche chiave relative ai cluster per aiutarti a monitorarne l'integrità.

  • Gli amministratori e gli sviluppatori dei cluster utilizzano kubectl per accedere ai piani di controllo del cluster tramite indirizzi IP virtuali (VIP) specificati come parte della configurazione del cluster. Gli utenti e gli sviluppatori delle applicazioni utilizzano VIP di servizio e in entrata per accedere ai carichi di lavoro e esporre i carichi di lavoro.

Connessione al parco risorse

Tutti i cluster utente (e, facoltativamente, cluster di amministrazione) sono membri di un parco risorse: un raggruppamento logico di cluster Kubernetes. I parchi risorse consentono alla tua organizzazione di migliorare la gestione da singoli cluster a interi gruppi di cluster e possono aiutare i tuoi team ad adottare best practice simili a quelle utilizzate da Google. Puoi visualizzare e gestire i cluster del parco risorse insieme nella console Google Cloud e utilizzare le funzionalità di GKE Enterprise abilitate per il parco risorse per aiutarti a gestire, regolamentare e utilizzare i carichi di lavoro su larga scala. Puoi visualizzare un elenco completo delle funzionalità del parco risorse disponibili per gli ambienti on-premise in Opzioni di deployment di GKE Enterprise.

La connessione di ogni cluster a Google Cloud è gestita da un agente Connect, il cui deployment viene eseguito nell'ambito del processo di installazione di Google Distributed Cloud. Per saperne di più sul funzionamento di questo agente, consulta la panoramica dell'agente Connect.

L'appartenenza al parco risorse viene utilizzata anche per gestire i prezzi di Google Distributed Cloud per bare metal, come descritto nella sezione successiva.

Per una discussione più approfondita sulle funzionalità di GKE Enterprise e su come interagiscono, consulta la panoramica tecnica di GKE Enterprise.

Prezzi

I cluster GKE on-premise creati utilizzando Google Distributed Cloud vengono fatturati per vCPU nell'ambito di GKE Enterprise. Puoi abilitare il livello Enterprise abilitando l'API Anthos nel tuo progetto Google Cloud.

Per informazioni complete sui prezzi, incluso come contattare il team di vendita, consulta i prezzi di Google Kubernetes Engine.

Versioni

Per informazioni sulle versioni di Google Distributed Cloud, vedi i criteri di supporto delle versioni.

Installazione di Google Distributed Cloud su Bare Metal

Poiché i cluster GKE creati utilizzando Google Distributed Cloud vengono eseguiti nella tua infrastruttura, sono altamente configurabili. Dopo aver selezionato il modello di deployment che soddisfa le tue esigenze organizzative e per i casi d'uso specifici: puoi scegliere tra una gamma di modalità di bilanciamento del carico supportate, opzioni di indirizzamento IP, funzionalità di sicurezza, opzioni di connettività e altro ancora. La configurazione di un cluster GKE su bare metal richiede decisioni prima e durante l'installazione. Questo set di documentazione include guide per aiutare il tuo team a scegliere le funzionalità e le opzioni adatte a te. Per assicurarti che l'installazione soddisfi le esigenze della tua organizzazione, consulta i team dedicati alle applicazioni e al networking.