Google Distributed Cloud è la nostra soluzione che estende l'infrastruttura e i servizi al tuo data center. Google Cloud Offriamo Google Distributed Cloud in configurazioni connesse e con air gap che vengono eseguite su hardware fornito da Google. Offriamo anche Google Distributed Cloud come prodotto solo software (precedentemente noto come Google Distributed Cloud Virtual, a sua volta noto come Anthos clusters on bare metal) che viene eseguito sul tuo hardware. Il software Google Distributed Cloud può essere installato su VMware o bare metal. Questa guida è per il software Google Distributed Cloud che viene eseguito direttamente sulle macchine bare metal.
Il software Google Distributed Cloud si basa su Google Kubernetes Engine (GKE), con il proprio pacchetto Kubernetes che estende GKE per l'utilizzo in un ambiente on-premise. Con Google Distributed Cloud puoi creare, gestire e aggiornare i cluster GKE on-premise utilizzando le funzionalità di Google Cloud e distribuire e gestire applicazioni containerizzate sui tuoi cluster su larga scala utilizzando l'infrastruttura di Google.
Versioni supportate
Questa documentazione copre tutte le versioni supportate di Google Distributed Cloud. Ove pertinente, in questa documentazione conserviamo anche informazioni limitate per le versioni precedenti e non supportate. Le differenze specifiche per la versione nei requisiti e nel comportamento sono indicate nella documentazione. Allo stesso modo, quando una nuova funzionalità diventa disponibile, viene documentata la versione supportata per la funzionalità.
Per un elenco delle versioni secondarie supportate e delle patch disponibili, consulta Controllo delle versioni.
A partire dalla versione 1.29, non creiamo più una directory numerata per la documentazione della versione secondaria precedente. Puoi trovare la documentazione archiviata per la versione 1.16 e precedenti aggiungendo il numero di versione secondaria nel seguente URL:
https://cloud.google.com/anthos/clusters/docs/bare-metal/VERSION/
Sostituisci VERSION con una versione secondaria da 1.6 a 1.16 e copia l'URL nella barra degli indirizzi del browser.
Perché utilizzare Google Distributed Cloud su bare metal?
L'esecuzione del software Google Distributed Cloud su Bare Metal sfrutta l'infrastruttura aziendale esistente e ti consente di modernizzare le applicazioni per tutta la durata del loro ciclo di vita.
Bring your own node
Con un'installazione solo software su bare metal di Google Distributed Cloud, esegui il deployment delle applicazioni direttamente sulla tua infrastruttura hardware, che offre le migliori prestazioni e flessibilità. Hai il controllo diretto della scalabilità, della sicurezza e della latenza di rete dell'applicazione. Inoltre, puoi sfruttare i vantaggi offerti dalle applicazioni containerizzate tramite i componenti GKE.
Prestazioni migliorate e costi ridotti
Google Distributed Cloud gestisce il deployment e l'integrità delle applicazioni nei tuoi data center aziendali esistenti per un funzionamento più efficiente. Inoltre, puoi eseguire i container all'edge della rete, in modo che le app di analisi possano essere eseguite con il massimo rendimento.
L'utilizzo di Google Distributed Cloud su Bare Metal anziché su macchine virtuali ti consente di gestire i container delle applicazioni su un'ampia gamma di tipi di hardware ottimizzati per le prestazioni, come GPU e SSD. L'esecuzione di Google Distributed Cloud su bare metal consente anche l'accesso diretto delle applicazioni all'hardware.
Sicurezza compatibile
Poiché controlli l'ambiente dei nodi, puoi ottimizzare la rete, l'hardware e le applicazioni per soddisfare i tuoi requisiti specifici. Di conseguenza, puoi controllare direttamente la sicurezza del sistema, senza doverti preoccupare della compatibilità con macchine virtuali e sistemi operativi.
Deployment dell'applicazione monitorato
Google Distributed Cloud fornisce un monitoraggio avanzato dell'integrità e delle prestazioni del tuo ambiente. Questa funzionalità di monitoraggio ti aiuta a regolare la scalabilità delle applicazioni mantenendo l'affidabilità nonostante le fluttuazioni del carico di lavoro e del traffico di rete.
Gestisci il monitoraggio, il logging e l'analisi di cluster e carichi di lavoro tramite Connect Agent.
Latenza di rete e flessibilità
Poiché gestisci i requisiti di rete, la tua rete può essere ottimizzata per una bassa latenza. Questa ottimizzazione della rete può essere fondamentale per le prestazioni nell'analisi commerciale o finanziaria e in altre applicazioni aziendali o di rete perimetrale.
Disponibilità elevata
Google Distributed Cloud include il supporto per più nodi del piano di controllo in un cluster. Se un nodo del control plane non è attivo, puoi comunque amministrare il tuo ambiente.
Progettazione e controllo sicuri
La sicurezza dell'infrastruttura può essere personalizzata in base alle tue esigenze, con un numero minimo di connessioni a risorse esterne. Ancora più importante, non c'è alcuna complessità aggiuntiva della VM durante il deployment dei sistemi di sicurezza e mantieni il controllo completo del sistema operativo quando interagisci con i sistemi di sicurezza esistenti.
Google Distributed Cloud funziona con connessioni sicure e leggere alle API di Google. Puoi gestire cluster e applicazioni da una posizione centralizzata con Connect e Cloud Monitoring. Questa centralizzazione contribuisce inoltre a garantire il corretto funzionamento delle implementazioni e consente all' Google Cloud assistenza di risolvere i problemi in modo più efficace.
Controlli preflight durante l'installazione
Con Google Distributed Cloud, i cluster vengono eseguiti su sistemi Linux open source e aziendali e su un'infrastruttura hardware minima, il che crea flessibilità nel tuo ambiente. Include anche vari controlli preflight per garantire configurazioni e installazioni riuscite.
Deployment e bilanciamento del carico delle applicazioni
Google Distributed Cloud include meccanismi di bilanciamento del carico di livello 4 e 7 al momento della creazione del cluster.
Affidabilità migliorata di etcd
Per monitorare le dimensioni e deframmentare i database etcd
, i control plane di Google Distributed Cloud includono un pod etcddefrag
. Il pod etcddefrag
recupera
spazio di archiviazione da database etcd
di grandi dimensioni e recupera etcd
quando lo spazio su disco
viene superato.
Come funziona
Google Distributed Cloud estende Google Kubernetes Engine (GKE) per consentirti di creare cluster sui tuoi server Linux on-premise. Gestisci questi cluster on-premise in Google Cloudinsieme ai normali cluster GKE e a quelli in altri ambienti come parte di un parco risorse.
I cluster GKE vengono eseguiti in Google Cloud , dove il piano di controllo e l'infrastruttura di rete di Kubernetes vengono gestiti da Google Cloud. Dato che i cluster creati con Google Distributed Cloud vengono eseguiti nel tuo data center, forniamo alcuni software di amministrazione e del control plane oltre al software GKE. Il software eseguito nel tuo data center viene scaricato nell'ambito dei processi di installazione e upgrade.
Il seguente diagramma mostra il risultato semplificato di un'installazione completata:
Componenti chiave
I seguenti componenti costituiscono un'installazione solo software su bare metal di Google Distributed Cloud:
Il cluster di amministrazione è composto da uno o più nodi del control plane. Ogni nodo è una macchina fisica che esegue un sistema operativo Linux supportato. Il deployment standard è costituito da un cluster di amministrazione che gestisce il ciclo di vita di uno o più cluster utente tramite Kubernetes Resource Management (KRM). Ogni macchina nodo nell'installazione ha il proprio indirizzo IP.
Un cluster utente è il luogo in cui vengono eseguiti i carichi di lavoro che implementano le tue applicazioni, come in GKE su Google Cloud. Ogni cluster utente è composto da almeno un nodo del control plane e un nodo worker.
La workstation di amministrazione è una macchina separata (in genere) che include gli strumenti e gli artefatti del cluster, come i file di configurazione. I creatori di cluster e gli sviluppatori utilizzano questi strumenti e artefatti per gestire i propri cluster on-premise, con le autorizzazioni appropriate:
L'esecuzione di
bmctl
dalla workstation di amministrazione consente di creare e aggiornare cluster ed eseguire altre attività amministrative.L'esecuzione di
kubectl
dalla workstation di amministrazione ti consente di interagire con i cluster di amministrazione e utente, inclusa l'implementazione e la gestione dei carichi di lavoro
L'API GKE On-Prem è l'API ospitata da Google Cloudper la gestione del ciclo di vita del cluster. Utilizzi i client API (consoleGoogle Cloud , Google Cloud CLI e Terraform) per creare e gestire il ciclo di vita dei tuoi cluster on-premise in alternativa all'accesso alla workstation amministrativa per gestire i tuoi cluster con l'interfaccia a riga di comando
bmctl
.La console fornisce anche un'interfaccia web per il tuo progettoGoogle Cloud , inclusi i cluster on-premise. La console mostra le metriche chiave sui tuoi cluster per aiutarti a monitorare lo stato dei cluster.
Gli amministratori e gli sviluppatori del cluster utilizzano
kubectl
per accedere ai control plane del cluster tramite indirizzi IP virtuali (VIP) specificati nell'ambito della configurazione del cluster. Gli utenti e gli sviluppatori di applicazioni utilizzano i VIP di Service e Ingress per accedere ai workload ed esporli rispettivamente.
Connessione alla flotta in corso…
Tutti i cluster utente (e, facoltativamente, i cluster di amministrazione) sono membri di un parco risorse: un raggruppamento logico di cluster Kubernetes. I parchi risorse consentono alla tua organizzazione di migliorare il livello di gestione da singoli cluster a interi gruppi di cluster e possono aiutare i tuoi team ad adottare best practice simili a quelle utilizzate in Google. Puoi visualizzare e gestire i cluster del parco risorse insieme nella console Google Cloud e utilizzare le funzionalità GKE abilitate per il parco risorse per gestire, controllare e utilizzare i tuoi carichi di lavoro su larga scala. Puoi visualizzare un elenco completo delle funzionalità della flotta disponibili per gli ambienti on-premise.
La connessione di ogni cluster della flotta a Google Cloud è gestita da un agente Connect, che viene implementato nell'ambito del processo di installazione di Google Distributed Cloud. Puoi scoprire di più sul funzionamento di questo agente nella panoramica dell'agente Connect.
L'appartenenza al parco risorse viene utilizzata anche per gestire i prezzi di Google Distributed Cloud su bare metal, come descritto nella sezione successiva.
Prezzi
I cluster on-premise creati utilizzando Google Distributed Cloud vengono fatturati per vCPU. Per abilitare la fatturazione, devi attivare l'API Anthos nel tuo progetto Google Cloud.
Per informazioni complete sui prezzi, incluso come contattare il team di vendita, consulta Prezzi di Google Kubernetes Engine.
Versioni
Per informazioni sulle versioni di Google Distributed Cloud, consulta i criteri di assistenza per le versioni.
Installazione di Google Distributed Cloud su bare metal
Poiché i cluster creati utilizzando Google Distributed Cloud vengono eseguiti nella tua infrastruttura, sono altamente configurabili. Dopo aver selezionato il modello di deployment che soddisfa le tue particolari esigenze organizzative e di caso d'uso, puoi scegliere tra una gamma di modalità di bilanciamento del carico, opzioni di indirizzamento IP, funzionalità di sicurezza, opzioni di connettività e altro ancora. La configurazione di un cluster comporta decisioni da prendere prima e durante l'installazione. Questo set di documentazione include guide per aiutare il tuo team a decidere le funzionalità e le opzioni giuste per te. Per assicurarti che l'installazione soddisfi le esigenze della tua organizzazione, consulta i team di rete e applicazioni.