Panoramica di Google Distributed Cloud (solo software) per bare metal

Google Distributed Cloud è la nostra soluzione che estende l'infrastruttura e i servizi di Google Cloud nel tuo data center. Offriamo Google Distributed Cloud sia configurazioni connesse e con air gap eseguite su hardware fornito da Google. Me offrire anche Google Distributed Cloud come prodotto solo software (precedentemente noto come Google Distributed Cloud) che viene eseguito sul tuo hardware. Il software Google Distributed Cloud può essere installato su VMware o bare metal. Questa guida si rivolge a Il software Google Distributed Cloud che viene eseguito direttamente sulle tue macchine bare metal.

Il software Google Distributed Cloud si basa su Google Kubernetes Engine (GKE), con un proprio pacchetto Kubernetes che estende GKE per l'utilizzo in un ambiente on-premise. Con Google Distributed Cloud puoi creare, gestire e eseguire l'upgrade dei cluster GKE on-premise, utilizzando al contempo le funzionalità di Google Cloud, nonché eseguire il deployment e gestire applicazioni containerizzate sui tuoi cluster su larga scala utilizzando l'infrastruttura di Google.

L'installazione del software Google Distributed Cloud ti autorizza a utilizzare GKE Enterprise: un livello enterprise per GKE con Funzionalità potenti per la regolazione, la gestione e il funzionamento dei carichi di lavoro containerizzati e su larga scala. Puoi scoprire di più su GKE Enterprise e sulle disponibili su Bare Metal Panoramica tecnica di GKE Enterprise.

Versioni supportate

Questa documentazione riguarda tutte le versioni supportate di Google Distributed Cloud. Se pertinente, conserviamo anche informazioni limitate per i dati più vecchi, più versioni di questa documentazione. Le differenze specifiche della versione nei requisiti e nel comportamento sono indicate nella documentazione. Analogamente, quando diventa disponibile una nuova funzionalità, viene documentata la versione supportata.

Per un elenco delle versioni secondarie supportate e delle patch disponibili, consulta Versionamento.

A partire dalla versione 1.29, non creiamo più una directory numerata per documentazione precedente sulla release secondaria. Puoi trovare la documentazione archiviata per versione 1.15 e precedenti aggiungendo il numero di versione secondario nel seguente URL:

https://cloud.google.com/anthos/clusters/docs/bare-metal/VERSION/

Sostituisci VERSION con una versione secondaria da 1.6 a 1.15 e copia l'URL nella barra degli indirizzi del browser.

Perché utilizzare Google Distributed Cloud on bare metal?

L'esecuzione del software Google Distributed Cloud su bare metal sfrutta le tue nell'infrastruttura aziendale esistente e ti aiuta a modernizzare le applicazioni durante tutto il loro ciclo di vita.

Bring Your Own Node

Con un'installazione solo software su bare metal di Google Distributed Cloud, di eseguire il deployment delle applicazioni direttamente sulla tua infrastruttura hardware, le migliori prestazioni e flessibilità. Hai il controllo diretto sulla scalabilità delle applicazioni, sulla sicurezza e sulla latenza di rete. Ottieni anche i vantaggi dell'uso le tue applicazioni tramite i componenti GKE, incluse potenti funzionalità dal livello Enterprise.

Prestazioni migliorate e costi ridotti

Google Distributed Cloud gestisce il deployment e l'integrità delle applicazioni i data center aziendali esistenti per un funzionamento più efficiente. Inoltre, puoi eseguire container sul perimetro della rete, per cui le app di analisi possono le prestazioni dei dispositivi.

L'utilizzo di Google Distributed Cloud on bare metal al posto delle macchine virtuali ti offre di gestire container di applicazioni su un'ampia gamma tipi di hardware ottimizzati per le prestazioni, come GPU e SSD. Esecuzione Google Distributed Cloud on bare metal consente inoltre l’accesso diretto alle applicazioni all'hardware.

Sicurezza compatibile

Poiché controlli l'ambiente del tuo nodo, puoi ottimizzare la rete, l'hardware e le applicazioni per soddisfare i tuoi requisiti specifici. Di conseguenza, puoi controllare direttamente la sicurezza del sistema, senza doverti preoccupare compatibilità con le macchine virtuali e i sistemi operativi.

Deployment delle applicazioni monitorate

Google Distributed Cloud fornisce un monitoraggio avanzato dell'integrità e delle prestazioni del tuo ambiente. Puoi regolare più facilmente la scala delle applicazioni mantenendo l'affidabilità nonostante le fluttuazioni del carico di lavoro traffico di rete.

Gestisci il monitoraggio, il logging e l'analisi di cluster e carichi di lavoro tramite Connect.

Latenza e flessibilità della rete

Poiché sei tu a gestire i requisiti di rete, la tua rete può essere ottimizzata per una bassa latenza. Questa ottimizzazione della rete può essere fondamentale per il rendimento analisi commerciali o finanziarie e altri dati sul perimetro della rete o dell'azienda diverse applicazioni.

Disponibilità elevata

Google Distributed Cloud include il supporto per più nodi di controllo in un cluster. Se un nodo del piano di controllo non è attivo, puoi comunque amministrare il tuo ambiente.

Progettazione e controllo sicuri

La sicurezza dell'infrastruttura può essere personalizzata in base alle tue esigenze, con un numero minimo di connessioni a risorse esterne. Soprattutto, non c'è alcuna complessità aggiuntiva delle VM prilikom implementacije sistema di sicurezza e mantieni il controllo completo del sistema operativo prilikom interazione con i sistemi di sicurezza esistenti.

Google Distributed Cloud funziona con connessioni sicure e leggere alle API di Google. Puoi gestire cluster e applicazioni da una posizione centrale con Connect e Cloud Monitoring. Questa centralizzazione aiuta anche a mantenere e l'esecuzione dei deployment senza intoppi e consente all'Assistenza Google Cloud di risolvere i problemi i problemi in modo più efficace.

Controlli preflight durante l'installazione

Con Google Distributed Cloud, i tuoi cluster GKE vengono eseguiti su sistemi Linux open source e aziendali e su un'infrastruttura hardware minima, pertanto sono flessibili nel tuo ambiente. Include anche vari controlli pre-flight per garantire configurazioni e installazioni efficaci.

Deployment delle applicazioni e bilanciamento del carico

Google Distributed Cloud include meccanismi di bilanciamento del carico di livello 4 e 7 per la creazione del cluster.

Affidabilità migliorata di etcd

Per monitorare le dimensioni e defragmentare i database etcd, i piani di controllo di Google Distributed Cloud includono un pod etcddefrag. Il pod etcddefrag recupera lo spazio di archiviazione da grandi database etcd e recupera etcd quando lo spazio su disco viene superato.

Come funziona

Google Distributed Cloud estende Google Kubernetes Engine (GKE) di creare cluster GKE sui tuoi server Linux on-premise. Sei tu a gestire questi cluster on-premise in Google Cloud, insieme ai normali cluster GKE e a quelli in altri ambienti, come parte di un parco risorse.

I cluster GKE tradizionali vengono eseguiti in Google Cloud, il piano di controllo e l'infrastruttura di rete sono gestiti da Google Cloud. Poiché I cluster Google Distributed Cloud vengono eseguiti nel tuo data center, ti forniamo per gli amministratori e il piano di controllo, oltre al software software. Il software eseguito nel tuo data center viene scaricato come parte i processi di installazione e upgrade.

Il seguente diagramma mostra il risultato semplificato di un'installazione completata:

Diagramma di un cluster di amministrazione e di un cluster utente
Architettura di Google Distributed Cloud on bare metal con un cluster di amministrazione e un cluster utente (fai clic per ingrandire)

Componenti chiave

I seguenti componenti costituiscono un'installazione solo software su bare metal di Google Distributed Cloud:

  • Il cluster di amministrazione è costituito da uno o più nodi del control plane. Ogni nodo è una macchina fisica che esegue un sistema operativo Linux supportato. Il deployment standard è costituito da un cluster di amministrazione che gestisce il ciclo di vita di uno o più cluster utente tramite Kubernetes Resource Management (KRM). Ogni macchina del nodo nell'installazione ha il proprio indirizzo IP.

  • Un cluster utente è il luogo in cui vengono eseguiti i carichi di lavoro che implementano le applicazioni, come in GKE su Google Cloud. Ogni cluster utente è costituito da almeno un nodo del piano di controllo e un nodo worker.

  • La workstation di amministrazione è una macchina separata (in genere) che include e gli artefatti del cluster, come i file di configurazione. Autori del cluster e gli sviluppatori usano questi strumenti e artefatti per gestire i loro Cluster GKE, con le autorizzazioni appropriate:

    • L'esecuzione di bmctl dalla workstation di amministrazione consente di creare e aggiornare cluster ed eseguire altre attività amministrative

    • L'esecuzione di kubectl dalla workstation di amministrazione ti consente di interagire con i cluster di amministrazione e utente, ad esempio di eseguire il deployment e la gestione dei carichi di lavoro.

  • L'API GKE On-Prem è l'API ospitata da Google Cloud per il ciclo di vita dei cluster gestione dei dispositivi. Utilizza i client API (console Google Cloud, Google Cloud CLI e Terraform) per creare e gestire il ciclo di vita dei tuoi cluster on-premise come alternativa all'accesso alla stazione di lavoro di amministrazione per gestire i cluster con l'interfaccia a riga di comando bmctl.

  • La console fornisce inoltre un'interfaccia web per il tuo progetto Google Cloud, inclusi i cluster on-premise. La console mostra le metriche chiave dei tuoi cluster per aiutarti a monitorarne l'integrità.

  • Gli amministratori e gli sviluppatori del cluster utilizzano kubectl per accedere ai control plane del cluster tramite indirizzi IP virtuali (VIP) specificati nell'ambito della configurazione del cluster. Gli utenti e gli sviluppatori di applicazioni usano VIP in entrata per accedere e esporre rispettivamente i carichi di lavoro.

Connessione al parco risorse in corso...

Tutti i cluster utente (e facoltativamente i cluster di amministrazione) fanno parte di un parco risorse: un raggruppamento logico di cluster Kubernetes. I parchi risorse consentono alla tua organizzazione di migliorare il livello di gestione da singoli cluster a interi gruppi di cluster e possono aiutare i tuoi team ad adottare best practice simili a quelle utilizzate da Google. Puoi visualizzare e gestire i cluster del parco risorse nella console Google Cloud e usare applicazioni abilitate Funzionalità di GKE Enterprise per aiutarti a gestire, gestire e operare dei carichi di lavoro su larga scala. Puoi visualizzare un elenco completo delle funzionalità del parco risorse disponibili per gli ambienti on-premise nelle opzioni di deployment di GKE Enterprise.

La connessione di ogni cluster del parco risorse a Google Cloud è gestita da un Agente Connect, il cui deployment viene eseguito come parte di Google Distributed Cloud durante il processo di installazione. Per ulteriori informazioni sul funzionamento di questo agente, consulta il Panoramica di Connect Agent.

L'appartenenza al parco risorse viene utilizzata anche per gestire i prezzi di Google Distributed Cloud metallo, come descritto nella prossima sezione.

Per una discussione più approfondita sulle funzionalità di GKE Enterprise e sul loro funzionamento, consulta la panoramica tecnica di GKE Enterprise.

Prezzi

I cluster GKE on-premise creati utilizzando Google Distributed Cloud e vengono fatturate per vCPU come parte di GKE Enterprise. L'utente attiva Abilita il livello Enterprise abilitando Anthos dell'API in Google Cloud progetto.

Per informazioni complete sui prezzi, incluso come contattare il team di vendita, vedi Prezzi di Google Kubernetes Engine.

Versioni

Per informazioni sulle versioni di Google Distributed Cloud, consulta i Criteri di assistenza delle versioni.

Installazione di Google Distributed Cloud su bare metal

Poiché i cluster GKE creati utilizzando Google Distributed Cloud vengono eseguiti nella tua infrastruttura, sono altamente configurabili. Una volta selezionato il modello di deployment che soddisfi le tue per esigenze organizzative e casi d'uso particolari: puoi scegliere tra una serie modalità di bilanciamento del carico supportate, opzioni di indirizzamento IP, funzionalità di sicurezza opzioni di connettività e altro ancora. La configurazione di un cluster GKE on bare metal richiede di prendere decisioni prima e durante l'installazione. Questo il set di documentazione include guide per aiutare il tuo team a scegliere le funzionalità giuste e le opzioni a tua disposizione. Per assicurarti che l'installazione soddisfi le esigenze del tuo consulta i team dedicati al networking e alle applicazioni.