Panoramica di Google Distributed Cloud (solo software) per bare metal

Google Distributed Cloud è la nostra soluzione che estende l'infrastruttura e i servizi di Google Cloud nel tuo data center. Offriamo Google Distributed Cloud sia in configurazioni connesse che con air gap che vengono eseguite su hardware fornito da Google. Offriamo inoltre Google Distributed Cloud come prodotto solo software (in precedenza Google Distributed Cloud Virtual, precedentemente Anthos clusters on bare metal) che funziona sul tuo hardware. Il software Google Distributed Cloud può essere installato su VMware o bare metal. Questa guida riguarda il software Google Distributed Cloud che viene eseguito direttamente sulle macchine bare metal.

Il software Google Distributed Cloud si basa su Google Kubernetes Engine (GKE), con un proprio pacchetto Kubernetes che estende GKE per l'utilizzo in un ambiente on-premise. Con Google Distributed Cloud puoi creare, gestire e eseguire l'upgrade dei cluster GKE on-premise, utilizzando al contempo le funzionalità di Google Cloud, nonché eseguire il deployment e gestire applicazioni containerizzate sui tuoi cluster su larga scala utilizzando l'infrastruttura di Google.

L'installazione del software Google Distributed Cloud ti dà diritto a utilizzare GKE Enterprise, un livello Enterprise per GKE con funzionalità avanzate per la regolazione, la gestione e il funzionamento dei carichi di lavoro containerizzati su larga scala. Per scoprire di più su GKE Enterprise e sulle funzionalità disponibili su bare metal, consulta la panoramica tecnica di GKE Enterprise.

Versioni supportate

Questa documentazione riguarda tutte le versioni supportate di Google Distributed Cloud. Ove pertinente, in questa documentazione conserviamo anche informazioni limitate per le versioni precedenti non supportate. Le differenze specifiche della versione nei requisiti e nel comportamento sono indicate nella documentazione. Analogamente, quando diventa disponibile una nuova funzionalità, viene documentata la versione supportata.

Per un elenco delle versioni secondarie supportate e delle patch disponibili, consulta Versionamento.

A partire dalla release 1.29, non viene più creata una directory numerata per la documentazione delle release minori precedenti. Puoi trovare la documentazione archiviata per la versione 1.15 e precedenti aggiungendo il numero della versione secondaria nel seguente URL:

https://cloud.google.com/anthos/clusters/docs/bare-metal/VERSION/

Sostituisci VERSION con una versione secondaria da 1.6 a 1.15 e copia l'URL nella barra degli indirizzi del browser.

Perché utilizzare Google Distributed Cloud on bare metal?

L'esecuzione del software Google Distributed Cloud su bare metal sfrutta l'infrastruttura aziendale esistente e ti consente di modernizzare le applicazioni per tutta la durata del loro ciclo di vita.

Bring Your Own Node

Con un'installazione solo software su bare metal di Google Distributed Cloud, puoi eseguire il deployment delle applicazioni direttamente sulla tua infrastruttura hardware, che offre le migliori prestazioni e flessibilità. Hai il controllo diretto sulla scalabilità delle applicazioni, sulla sicurezza e sulla latenza di rete. Puoi anche usufruire dei vantaggi delle applicazioni containerizzate tramite i componenti GKE, incluse le potenti funzionalità del livello Enterprise.

Prestazioni migliorate e costi ridotti

Google Distributed Cloud gestisce il deployment e lo stato delle applicazioni nei data center aziendali esistenti per un funzionamento più efficiente. Inoltre, puoi eseguire i container all'edge della rete, in modo che le app di analisi possano funzionare con il rendimento completo.

L'utilizzo di Google Distributed Cloud su bare metal anziché su macchine virtuali ti consente di gestire i container delle applicazioni su una vasta gamma di tipi di hardware ottimizzati per le prestazioni, come GPU e unità SSD. L'esecuzione di Google Distributed Cloud su bare metal consente inoltre l'accesso diretto delle applicazioni all'hardware.

Sicurezza compatibile

Poiché controlli l'ambiente del tuo nodo, puoi ottimizzare la rete, l'hardware e le applicazioni per soddisfare i tuoi requisiti specifici. Di conseguenza, puoi controllare direttamente la sicurezza del sistema, senza doverti preoccupare della compatibilità con le macchine virtuali e i sistemi operativi.

Deployment delle applicazioni monitorate

Google Distributed Cloud fornisce un monitoraggio avanzato dell'integrità e delle prestazioni del tuo ambiente. Questa funzionalità di monitoraggio ti consente di modificare la scala delle applicazioni mantenendo l'affidabilità nonostante le fluttuazioni del carico di lavoro e del traffico di rete.

Gestisci il monitoraggio, il logging e l'analisi di cluster e carichi di lavoro tramite Connect Agent.

Latenza e flessibilità della rete

Poiché sei tu a gestire i requisiti di rete, la tua rete può essere ottimizzata per una bassa latenza. Questa ottimizzazione della rete può essere fondamentale per il rendimento nell'analisi commerciale o finanziaria e in altre applicazioni di edge aziendale o di rete.

Disponibilità elevata

Google Distributed Cloud include il supporto di più nodi del piano di controllo in un cluster. Se un nodo del piano di controllo non è attivo, puoi comunque amministrare il tuo ambiente.

Progettazione e controllo sicuri

La sicurezza dell'infrastruttura può essere personalizzata in base alle tue esigenze, con un numero minimo di connessioni a risorse esterne. Soprattutto, non c'è ulteriore complessità delle VM prilikom implementacije sistema di sicurezza e mantieni il controllo completo del sistema operativo prilikom interazione con i sistemi di sicurezza esistenti.

Google Distributed Cloud funziona con connessioni sicure e leggere alle API di Google. Puoi gestire cluster e applicazioni da un'unica posizione con Connect e Cloud Monitoring. Questa centralizzazione contribuisce inoltre a mantenere scorrevoli i tuoi deployment e consente all'Assistenza Google Cloud di risolvere i problemi in modo più efficace.

Controlli preflight durante l'installazione

Con Google Distributed Cloud, i tuoi cluster vengono eseguiti su sistemi Linux open source ed enterprise e su un'infrastruttura hardware minima, il che crea flessibilità nel tuo ambiente. Include anche vari controlli preflight per contribuire a garantire configurazioni e installazioni riuscite.

Deployment delle applicazioni e bilanciamento del carico

Google Distributed Cloud include meccanismi di bilanciamento del carico di livello 4 e 7 al momento della creazione del cluster.

Affidabilità migliorata di etcd

Per monitorare le dimensioni e defragmentare i database etcd, i piani di controllo di Google Distributed Cloud includono un pod etcddefrag. Il pod etcddefrag recupera lo spazio di archiviazione da grandi database etcd e recupera etcd quando lo spazio su disco viene superato.

Come funziona

Google Distributed Cloud estende Google Kubernetes Engine (GKE) per consentirti di creare cluster sui tuoi server Linux on-premise. Sei tu a gestire questi cluster on-premise in Google Cloud, insieme ai normali cluster GKE e a quelli in altri ambienti, come parte di un parco risorse.

I cluster GKE vengono eseguiti in Google Cloud, dove il piano di controllo e l'infrastruttura di rete di Kubernetes vengono gestiti da Google Cloud. Poiché i cluster creati con Google Distributed Cloud vengono eseguiti nel tuo data center, forniamo del software di amministrazione e del piano di controllo oltre al software GKE. Il software eseguito nel tuo data center viene scaricato nell'ambito dei processi di installazione e upgrade.

Il seguente diagramma mostra il risultato semplificato di un'installazione completata:

Architettura di base per il deployment di un cluster di amministrazione e di un cluster utente
Architettura di Google Distributed Cloud su bare metal con un cluster di amministrazione e un cluster di utenti (fai clic per ingrandire)

Componenti chiave

I seguenti componenti costituiscono un'installazione solo software su bare metal di Google Distributed Cloud:

  • Il cluster di amministrazione è composto da uno o più nodi del control plane. Ogni nodo è una macchina fisica su cui è in esecuzione un sistema operativo Linux supportato. Il deployment standard è costituito da un cluster di amministrazione che gestisce il ciclo di vita di uno o più cluster utente tramite Kubernetes Resource Management (KRM). Ogni macchina del nodo nell'installazione ha il proprio indirizzo IP.

  • Un cluster utente è il luogo in cui vengono eseguiti i carichi di lavoro che implementano le tue applicazioni, come in GKE su Google Cloud. Ogni cluster utente è costituito da almeno un nodo del piano di controllo e un nodo worker.

  • La workstation di amministrazione è in genere una macchina separata che include gli strumenti e gli elementi del cluster, come i file di configurazione. I creator e gli sviluppatori di cluster utilizzano questi strumenti e artefatti per gestire i propri cluster on-premise, con le autorizzazioni appropriate:

    • L'esecuzione di bmctl dalla workstation di amministrazione ti consente di creare e aggiornare i cluster ed eseguire alcune altre attività amministrative

    • L'esecuzione di kubectl dalla workstation di amministrazione ti consente di interagire con i cluster di amministrazione e utente, inclusa l'implementazione e la gestione dei workload

  • L'API GKE On-Prem è l'API ospitata da Google Cloud per la gestione del ciclo di vita dei cluster. Utilizza i client API (console Google Cloud, Google Cloud CLI e Terraform) per creare e gestire il ciclo di vita dei tuoi cluster on-premise come alternativa all'accesso alla stazione di lavoro di amministrazione per gestire i cluster con l'interfaccia a riga di comando bmctl.

  • La console fornisce inoltre un'interfaccia web per il tuo progetto Google Cloud, inclusi i cluster on-premise. La console mostra le metriche chiave dei tuoi cluster per aiutarti a monitorarne l'integrità.

  • Gli amministratori e gli sviluppatori del cluster utilizzano kubectl per accedere ai control plane del cluster tramite indirizzi IP virtuali (VIP) specificati nell'ambito della configurazione del cluster. Gli utenti e gli sviluppatori dell'applicazione utilizzano gli IP virtuali di servizio e di ingresso per accedere ai workload e esporli rispettivamente.

Connessione al parco risorse

Tutti i cluster utente (e facoltativamente i cluster di amministrazione) fanno parte di un parco risorse: un raggruppamento logico di cluster Kubernetes. I parchi risorse consentono alla tua organizzazione di migliorare il livello di gestione da singoli cluster a interi gruppi di cluster e possono aiutare i tuoi team ad adottare best practice simili a quelle utilizzate da Google. Puoi visualizzare e gestire i cluster del parco risorse insieme nella console Google Cloud e utilizzare le funzionalità di GKE Enterprise abilitate per il parco risorse per gestire, regolamentare e utilizzare i tuoi carichi di lavoro su larga scala. Puoi visualizzare un elenco completo delle funzionalità dei parchi risorse disponibili per gli ambienti on-premise nelle opzioni di deployment di GKE Enterprise.

La connessione di ogni cluster del parco a Google Cloud è gestita da un agente di connessione, che viene disegnato nell'ambito della procedura di installazione di Google Distributed Cloud. Per scoprire di più sul funzionamento di questo agente, consulta la Panoramica dell'agente Connect.

L'appartenenza al parco viene utilizzata anche per gestire i prezzi di Google Distributed Cloud su bare metal, come descritto nella sezione successiva.

Per una discussione più approfondita delle funzionalità di GKE Enterprise e del loro funzionamento, consulta la panoramica tecnica di GKE Enterprise.

Prezzi

I cluster on-premise creati utilizzando Google Distributed Cloud vengono fatturati in base alle vCPU nell'ambito di GKE Enterprise. Per attivare il livello Enterprise, attiva l'API Anthos nel tuo progetto Google Cloud.

Per informazioni dettagliate sui prezzi, incluso come contattare il team di vendita, consulta Prezzi di Google Kubernetes Engine.

Versioni

Per informazioni sulle versioni di Google Distributed Cloud, consulta Criteri di assistenza delle versioni.

Installazione di Google Distributed Cloud su bare metal

Poiché i cluster creati utilizzando Google Distributed Cloud vengono eseguiti nella tua infrastruttura, sono altamente configurabili. Dopo aver selezionato il modello di deployment che soddisfa le tue specifiche esigenze organizzative e di caso d'uso, puoi scegliere tra una serie di modalità di bilanciamento del carico supportate, opzioni di indirizzamento IP, funzionalità di sicurezza, opzioni di connettività e altro ancora. La configurazione di un cluster comporta la presa di decisioni prima e durante l'installazione. Questo set di documentazione include guide per aiutare il tuo team a scegliere le funzionalità e le opzioni più adatte alle tue esigenze. Per assicurarti che l'installazione soddisfi le esigenze della tua organizzazione, rivolgiti ai team di networking e applicazioni.