Google Distributed Cloud (solo software) per una panoramica bare metal

Google Distributed Cloud è la nostra soluzione che estende l'infrastruttura e i servizi di Google Cloud nel tuo data center. Offriamo Google Distributed Cloud in configurazioni connesse e air-gap che vengono eseguite su hardware fornito da Google. Offriamo anche Google Distributed Cloud come prodotto solo software (precedentemente noto come Google Distributed Cloud Virtual) che viene eseguito sul tuo hardware. Il software Google Distributed Cloud può essere installato su VMware o bare metal. Questa guida si riferisce al software Google Distributed Cloud che viene eseguito direttamente sulle tue macchine bare metal.

Il software Google Distributed Cloud è basato su Google Kubernetes Engine (GKE), con il proprio pacchetto Kubernetes che estende GKE per l'utilizzo in un ambiente on-premise. Con Google Distributed Cloud puoi creare, gestire ed eseguire l'upgrade dei cluster GKE on-premise utilizzando le funzionalità di Google Cloud. Inoltre, puoi eseguire il deployment di applicazioni containerizzate e gestirle nei tuoi cluster su larga scala utilizzando l'infrastruttura di Google.

L'installazione del software Google Distributed Cloud ti dà diritto all'utilizzo di GKE Enterprise: un livello aziendale per GKE con funzionalità potenti per la regolazione, la gestione e il funzionamento dei carichi di lavoro containerizzati su larga scala. Puoi scoprire di più su GKE Enterprise e sulle funzionalità disponibili su bare metal nella panoramica tecnica di GKE Enterprise.

Perché usare Google Distributed Cloud on bare metal?

L'esecuzione del software Google Distributed Cloud su bare metal sfrutta l'infrastruttura aziendale esistente e ti aiuta a modernizzare le applicazioni durante il loro ciclo di vita.

Uso del nodo

Con un'installazione solo software su bare metal di Google Distributed Cloud, esegui il deployment delle applicazioni direttamente sulla tua infrastruttura hardware, offrendo così le migliori prestazioni e flessibilità. Hai il controllo diretto su scalabilità delle applicazioni, sicurezza e latenza di rete. Puoi inoltre usufruire dei vantaggi delle applicazioni containerizzate attraverso i componenti GKE, incluse le potenti funzionalità del livello enterprise.

Prestazioni migliorate e costi ridotti

Google Distributed Cloud gestisce il deployment e l'integrità delle applicazioni nei data center aziendali esistenti per un funzionamento più efficiente. Inoltre, puoi eseguire i container sul perimetro della rete, in modo che le app di analisi possano essere eseguite a prestazioni ottimali.

L'utilizzo di Google Distributed Cloud on bare metal al posto delle macchine virtuali ti offre la possibilità di gestire container di applicazioni su un'ampia gamma di tipi di hardware ottimizzati per le prestazioni, come GPU e SSD. L'esecuzione di Google Distributed Cloud su bare metal consente inoltre l'accesso diretto all'hardware.

Sicurezza compatibile

Dato che sei tu a controllare l'ambiente dei nodi, puoi ottimizzare la rete, l'hardware e le applicazioni per soddisfare le tue esigenze specifiche. Di conseguenza, puoi controllare direttamente la sicurezza del sistema, senza doverti preoccupare della compatibilità con le macchine virtuali e i sistemi operativi.

Deployment delle applicazioni monitorato

Google Distributed Cloud offre un monitoraggio avanzato dell'integrità e delle prestazioni del tuo ambiente. Puoi regolare più facilmente la scalabilità delle applicazioni, mantenendo l'affidabilità nonostante le fluttuazioni del carico di lavoro e del traffico di rete.

Puoi gestire il monitoraggio, il logging e l'analisi di cluster e carichi di lavoro tramite Connect.

Latenza e flessibilità di rete

Poiché gestisci i requisiti di rete, la tua rete può essere ottimizzata per ottenere una bassa latenza. Questa ottimizzazione della rete può essere fondamentale per le prestazioni nell'analisi commerciale o finanziaria e in altre applicazioni perimetrali aziendali o della rete.

Disponibilità elevata

Google Distributed Cloud include il supporto per più nodi di controllo in un cluster. Se un nodo del piano di controllo non funziona, puoi comunque amministrare il tuo ambiente.

Progettazione e controllo sicuri

La sicurezza della tua infrastruttura può essere personalizzata in base alle tue esigenze, con connessioni minime alle risorse esterne. Soprattutto, non c'è alcuna complessità aggiuntiva delle VM durante il deployment dei sistemi di sicurezza e mantieni il controllo completo del sistema operativo quando interagisci con i sistemi di sicurezza esistenti.

Google Distributed Cloud funziona con connessioni sicure e leggere alle API di Google. Puoi gestire cluster e applicazioni da una posizione centrale con Connect e Cloud Monitoring. Questa centralizzazione contribuisce inoltre a mantenere i deployment fluidi e consente all'Assistenza Google Cloud di risolvere i problemi in modo più efficace.

Controlli preflight all'installazione

Con Google Distributed Cloud, i tuoi cluster GKE vengono eseguiti su sistemi open source e Linux aziendali, su un'infrastruttura hardware minima, risultando flessibili nel tuo ambiente. Include inoltre vari controlli pre-flight per garantire configurazioni e installazioni riuscite.

Deployment dell'applicazione e bilanciamento del carico

Google Distributed Cloud include meccanismi di bilanciamento del carico di livello 4 e 7 durante la creazione del cluster.

Affidabilità di etcd migliorata

Per monitorare le dimensioni e deframmentare i database etcd, i piani di controllo di Google Distributed Cloud includono un pod etcddefrag. Il pod etcddefrag recupera lo spazio di archiviazione dai database etcd di grandi dimensioni e recupera etcd quando lo spazio su disco viene superato.

Come funziona

Google Distributed Cloud estende Google Kubernetes Engine (GKE) per consentirti di creare cluster GKE sui tuoi server Linux on-premise. Puoi gestire questi cluster on-premise in Google Cloud, insieme ai normali cluster GKE e a quelli in altri ambienti, come parte di un parco risorse.

I cluster GKE tradizionali vengono eseguiti in Google Cloud, dove il piano di controllo e l'infrastruttura di rete Kubernetes sono gestiti da Google Cloud. Poiché i cluster Google Distributed Cloud vengono eseguiti nel tuo data center, forniamo alcuni software di amministrazione e del piano di controllo oltre al software GKE. Il software eseguito nel tuo data center viene scaricato nell'ambito dei processi di installazione e upgrade.

Il seguente diagramma mostra il risultato semplificato di un'installazione completata:

Diagramma di un cluster di amministrazione e di un cluster utente
Architettura di Google Distributed Cloud on bare metal con un cluster di amministrazione e un cluster utente (fai clic per ingrandire)

Componenti chiave

I seguenti componenti costituiscono un'installazione solo software sul bare metal di Google Distributed Cloud:

  • Il cluster di amministrazione è costituito da uno o più nodi del piano di controllo. Ogni nodo è una macchina fisica che esegue un sistema operativo Linux supportato. Il deployment standard è costituito da un cluster di amministrazione che gestisce il ciclo di vita di uno o più cluster utente tramite Kubernetes Resource Management (KRM). Ogni macchina nodo nell'installazione ha il proprio indirizzo IP.

  • Un cluster utente è il luogo in cui vengono eseguiti i carichi di lavoro che implementano le applicazioni, come in GKE su Google Cloud. Ogni cluster utente è composto da almeno un nodo del piano di controllo e un nodo worker.

  • La workstation di amministrazione è una macchina separata (in genere) che include gli strumenti e gli artefatti del cluster, come i file di configurazione. I creatori e gli sviluppatori di cluster utilizzano questi strumenti e artefatti per gestire i propri cluster GKE on-premise, con le autorizzazioni appropriate:

    • L'esecuzione di bmctl dalla workstation di amministrazione consente di creare e aggiornare i cluster ed eseguire altre attività amministrative

    • L'esecuzione di kubectl dalla workstation di amministrazione ti consente di interagire con i tuoi cluster di amministrazione e utente, compresi il deployment e la gestione dei carichi di lavoro

  • L'API GKE On-Prem è l'API ospitata da Google Cloud per la gestione del ciclo di vita dei cluster. Puoi utilizzare i client API (console Google Cloud, Google Cloud CLI e Terraform) per creare e gestire il ciclo di vita dei cluster on-premise come alternativa all'accesso alla workstation di amministrazione per gestire i cluster con l'interfaccia a riga di comando bmctl.

  • La console fornisce anche un'interfaccia web per il tuo progetto Google Cloud, inclusi i cluster on-premise. La console visualizza le metriche chiave sui cluster per aiutarti a monitorarne l'integrità.

  • Gli amministratori e gli sviluppatori di cluster utilizzano kubectl per accedere ai piani di controllo dei cluster tramite indirizzi IP virtuali (VIP) specificati come parte della configurazione del cluster. Gli utenti e gli sviluppatori delle applicazioni utilizzano VIP del servizio e in entrata rispettivamente per accedere ai carichi di lavoro e esporli.

Connessione al parco risorse in corso...

Tutti i cluster utente (e, eventualmente, i cluster di amministrazione) sono membri di un parco: un raggruppamento logico di cluster Kubernetes. I parchi risorse consentono alla tua organizzazione di migliorare la gestione da singoli cluster a interi gruppi di cluster e possono aiutare i tuoi team ad adottare best practice simili a quelle utilizzate in Google. Puoi visualizzare e gestire i cluster del parco risorse insieme nella console Google Cloud e utilizzare le funzionalità di GKE Enterprise abilitate per il parco risorse per gestire, regolamentare e gestire i carichi di lavoro su larga scala. Puoi visualizzare un elenco completo delle funzionalità del parco risorse disponibili per gli ambienti on-premise nelle opzioni di deployment di GKE Enterprise.

La connessione di ogni cluster del parco risorse a Google Cloud è gestita da un agente Connect, il cui deployment viene eseguito nell'ambito del processo di installazione di Google Distributed Cloud. Per scoprire di più su come funziona questo agente, consulta la panoramica di Connect Agent.

L'appartenenza al parco risorse viene utilizzata anche per gestire i prezzi di Google Distributed Cloud on bare metal, come descritto nella sezione successiva.

Per una discussione più approfondita delle funzionalità di GKE Enterprise e del modo in cui interagiscono, consulta la panoramica tecnica di GKE Enterprise.

Prezzi

I cluster GKE on-premise creati utilizzando Google Distributed Cloud vengono fatturati per vCPU come parte di GKE Enterprise. Puoi abilitare il livello Enterprise abilitando l'API Anthos nel tuo progetto Google Cloud.

Per informazioni complete sui prezzi, incluso come contattare il team di vendita, consulta i prezzi di Google Kubernetes Engine.

Versioni

Per informazioni sulle versioni di Google Distributed Cloud, consulta Criteri per il supporto delle versioni.

Installazione di Google Distributed Cloud su bare metal

Poiché i cluster GKE creati utilizzando Google Distributed Cloud vengono eseguiti nella tua infrastruttura, sono altamente configurabili. Una volta selezionato il modello di deployment che soddisfa le specifiche esigenze organizzative e di caso d'uso, puoi scegliere tra una serie di modalità di bilanciamento del carico supportate, opzioni di indirizzamento IP, funzionalità di sicurezza, opzioni di connettività e altro ancora. La configurazione di un cluster GKE su Bare Metal richiede decisioni prima e durante l'installazione. Questo set di documentazione include guide per aiutare il tuo team a decidere le funzionalità e le opzioni giuste per te. Per assicurarti che l'installazione soddisfi le esigenze della tua organizzazione, consulta i team delle applicazioni e del networking.