Google Distributed Cloud (solo software) per una panoramica bare metal

Google Distributed Cloud è la nostra soluzione che estende l'infrastruttura di Google Cloud e nel tuo data center. Offriamo Google Distributed Cloud sia configurazioni connesse e con air gap eseguite su hardware fornito da Google. Me offrire anche Google Distributed Cloud come prodotto solo software (precedentemente noto come Google Distributed Cloud) che viene eseguito sul tuo hardware. Google Distributed Cloud il software può essere installato su VMware o bare metal. Questa guida si rivolge a Il software Google Distributed Cloud che viene eseguito direttamente sulle tue macchine bare metal.

Il software Google Distributed Cloud si basa su Google Kubernetes Engine (GKE) con il proprio pacchetto Kubernetes che estende GKE per l'utilizzo in dell'ambiente on-premise. Con Google Distributed Cloud puoi creare, gestire e eseguire l'upgrade dei cluster GKE on-premise utilizzando le funzionalità di Google Cloud; e esegui il deployment e gestisci applicazioni containerizzate sui tuoi cluster su larga scala utilizzando l'infrastruttura di Google.

L'installazione del software Google Distributed Cloud ti autorizza a utilizzare GKE Enterprise: un livello enterprise per GKE con Funzionalità potenti per la regolazione, la gestione e il funzionamento dei carichi di lavoro containerizzati e su larga scala. Puoi scoprire di più su GKE Enterprise e sulle disponibili su Bare Metal Panoramica tecnica di GKE Enterprise.

Versioni supportate

Questa documentazione riguarda tutte le versioni supportate di Google Distributed Cloud. Se pertinente, conserviamo anche informazioni limitate per i dati più vecchi, più versioni di questa documentazione. Differenze nei requisiti e nelle specifiche della versione sono riportati nella documentazione. Analogamente, quando una nuova caratteristica disponibile, la versione supportata per la funzionalità è documentata.

Per un elenco delle versioni secondarie supportate e delle patch disponibili, vedi Controllo delle versioni.

A partire dalla versione 1.29, non creiamo più una directory numerata per documentazione precedente sulla release secondaria. Puoi trovare la documentazione archiviata per versione 1.15 e precedenti aggiungendo il numero di versione secondario nel seguente URL:

https://cloud.google.com/anthos/clusters/docs/bare-metal/VERSION/

Sostituisci VERSION con una versione secondaria da 1.6 a 1.15 e copia l'URL nella barra degli indirizzi del browser.

Perché usare Google Distributed Cloud on bare metal?

L'esecuzione del software Google Distributed Cloud su bare metal sfrutta le tue nell'infrastruttura aziendale esistente e ti aiuta a modernizzare le applicazioni durante tutto il loro ciclo di vita.

Uso del nodo

Con un'installazione solo software su bare metal di Google Distributed Cloud, di eseguire il deployment delle applicazioni direttamente sulla tua infrastruttura hardware, le migliori prestazioni e flessibilità. Hai il controllo diretto sull'applicazione scalabilità, sicurezza e latenza di rete. Ottieni anche i vantaggi dell'uso le tue applicazioni tramite i componenti GKE, incluse potenti funzionalità dal livello Enterprise.

Prestazioni migliorate e costi ridotti

Google Distributed Cloud gestisce il deployment e l'integrità delle applicazioni i data center aziendali esistenti per un funzionamento più efficiente. Inoltre, puoi eseguire container sul perimetro della rete, per cui le app di analisi possono delle prestazioni.

L'utilizzo di Google Distributed Cloud on bare metal al posto delle macchine virtuali ti offre di gestire container di applicazioni su un'ampia gamma tipi di hardware ottimizzati per le prestazioni, come GPU e SSD. Esecuzione Google Distributed Cloud on bare metal consente inoltre l’accesso diretto alle applicazioni all'hardware.

Sicurezza compatibile

Dato che controlli l'ambiente dei nodi, puoi ottimizzare la tua rete, hardware e applicazioni per soddisfare le tue esigenze specifiche. Di conseguenza, puoi controllare direttamente la sicurezza del sistema, senza doverti preoccupare compatibilità con le macchine virtuali e i sistemi operativi.

Deployment delle applicazioni monitorato

Google Distributed Cloud offre un monitoraggio avanzato dell'integrità e le prestazioni del tuo ambiente. Puoi regolare più facilmente la scala delle applicazioni mantenendo l'affidabilità nonostante le fluttuazioni del carico di lavoro traffico di rete.

Gestisci il monitoraggio, il logging e l'analisi di cluster e carichi di lavoro tramite Connetti.

Latenza e flessibilità di rete

Poiché sei tu a gestire i tuoi requisiti di rete, la tua rete può essere ottimizzata a bassa latenza. Questa ottimizzazione della rete può essere fondamentale per il rendimento analisi commerciali o finanziarie e altri dati sul perimetro della rete o dell'azienda diverse applicazioni.

Disponibilità elevata

Google Distributed Cloud include il supporto per più nodi di controllo in un cluster. Se un nodo del piano di controllo non funziona, puoi comunque amministrare il tuo ambiente.

Progettazione e controllo sicuri

La sicurezza della tua infrastruttura può essere personalizzata in base alle tue esigenze, con il minimo e connessioni a risorse esterne. Ma soprattutto, non sono disponibili VM complessità durante il deployment di sistemi di sicurezza, mantenendo il controllo completo del sistema operativo quando si interagisce con sistemi di sicurezza esistenti.

Google Distributed Cloud funziona con connessioni sicure e leggere alle API di Google. Puoi gestire cluster e applicazioni da una posizione centrale con Connect e Cloud Monitoring. Questa centralizzazione aiuta anche a mantenere e l'esecuzione dei deployment senza intoppi e consente all'Assistenza Google Cloud di risolvere i problemi i problemi in modo più efficace.

Controlli preflight all'installazione

Con Google Distributed Cloud, i tuoi cluster GKE vengono eseguiti in open source e sistemi Linux aziendali e su un'infrastruttura hardware minima, e quindi sia flessibile nel tuo ambiente. Include anche vari controlli pre-flight per garantire configurazioni e installazioni efficaci.

Deployment dell'applicazione e bilanciamento del carico

Google Distributed Cloud include meccanismi di bilanciamento del carico di livello 4 e 7 per la creazione del cluster.

Affidabilità di etcd migliorata

Per monitorare le dimensioni e deframmentare i database etcd, Google Distributed Cloud di controllo includono un pod etcddefrag. Il pod etcddefrag viene richiamato spazio di archiviazione da database etcd di grandi dimensioni e recupera etcd quando lo spazio su disco superato.

Come funziona

Google Distributed Cloud estende Google Kubernetes Engine (GKE) di creare cluster GKE sui tuoi server Linux on-premise. Gestisci questi cluster on-premise in Google Cloud insieme ai normali cluster e cluster GKE in altri di sicurezza in un parco risorse.

I cluster GKE tradizionali vengono eseguiti in Google Cloud, il piano di controllo e l'infrastruttura di rete sono gestiti da Google Cloud. Poiché I cluster Google Distributed Cloud vengono eseguiti nel tuo data center, ti forniamo per gli amministratori e il piano di controllo, oltre al software software. Il software eseguito nel tuo data center viene scaricato come parte i processi di installazione e upgrade.

Il seguente diagramma mostra il risultato semplificato di un'installazione completata:

Diagramma di un cluster di amministrazione e di un cluster utente
Architettura di Google Distributed Cloud on bare metal con un cluster di amministrazione e un cluster utente (fai clic per ingrandire)

Componenti chiave

I seguenti componenti costituiscono un'installazione solo software su bare metal di Google Distributed Cloud:

  • Il cluster di amministrazione è costituito da uno o più nodi del piano di controllo. Ogni nodo è una macchina fisica che esegue un sistema operativo Linux supportato. La Il deployment standard è costituito da un cluster di amministrazione che gestisce il ciclo di vita di uno o più cluster utente tramite Kubernetes Resource Management (KRM). Ogni macchina nodo nell'installazione ha il proprio indirizzo IP.

  • Un cluster utente è il luogo in cui vengono eseguiti i carichi di lavoro che implementano le applicazioni, come in GKE su Google Cloud. Ogni cluster utente è composto da almeno un nodo del piano di controllo e un nodo worker.

  • La workstation di amministrazione è una macchina separata (in genere) che include e gli artefatti del cluster, come i file di configurazione. Autori del cluster e gli sviluppatori usano questi strumenti e artefatti per gestire i loro Cluster GKE, con le autorizzazioni appropriate:

    • L'esecuzione di bmctl dalla workstation di amministrazione consente di creare e aggiornare cluster ed eseguire altre attività amministrative

    • L'esecuzione di kubectl dalla workstation di amministrazione ti consente di interagire con cluster di amministrazione e utenti, inclusi il deployment e la gestione dei carichi di lavoro

  • L'API GKE On-Prem è l'API ospitata da Google Cloud per il ciclo di vita dei cluster gestione dei dispositivi. Utilizzi i client API (console Google Cloud, Google Cloud CLI e Terraform) per creare e gestire il ciclo di vita dei cluster on-premise. in alternativa all'accesso alla workstation di amministrazione per gestire cluster con l'interfaccia a riga di comando bmctl.

  • La console offre inoltre un'interfaccia web per i progetto Google Cloud, inclusi i cluster on-premise. La mostra le metriche chiave dei cluster per aiutarti per monitorare l'integrità del cluster.

  • Gli amministratori e gli sviluppatori del cluster utilizzano kubectl per accedere al cluster tramite indirizzi IP virtuali (VIP) specificati come parte e la configurazione del cluster. Gli utenti e gli sviluppatori di applicazioni usano VIP in entrata per accedere e esporre rispettivamente i carichi di lavoro.

Connessione al parco risorse in corso...

Tutti i cluster utente (e, facoltativamente, i cluster di amministrazione) sono membri di un fleet: un raggruppamento logico di Kubernetes cluster. I parchi risorse consentono alla tua organizzazione di migliorare la gestione a interi gruppi di cluster e può aiutare i tuoi team ad adottare best practice rispetto a quelle utilizzate da Google. Puoi visualizzare e gestire i cluster del parco risorse nella console Google Cloud e usare applicazioni abilitate Funzionalità di GKE Enterprise per aiutarti a gestire, gestire e operare dei carichi di lavoro su larga scala. Puoi visualizzare un elenco completo delle funzionalità disponibili per il parco risorse per gli ambienti on-premise nel deployment di GKE Enterprise opzioni.

La connessione di ogni cluster del parco risorse a Google Cloud è gestita da un Agente Connect, il cui deployment viene eseguito nell'ambito di Google Distributed Cloud durante il processo di installazione. Per ulteriori informazioni sul funzionamento di questo agente, consulta il Panoramica di Connect Agent.

L'appartenenza al parco risorse viene utilizzata anche per gestire i prezzi di Google Distributed Cloud metallo, come descritto nella prossima sezione.

Per un'analisi più approfondita delle funzionalità di GKE Enterprise e di come per interagire, consulta le informazioni tecniche di GKE Enterprise Panoramica.

Prezzi

I cluster GKE on-premise creati utilizzando Google Distributed Cloud e vengono fatturate per vCPU come parte di GKE Enterprise. L'utente attiva Abilita il livello Enterprise abilitando Anthos dell'API in Google Cloud progetto.

Per informazioni complete sui prezzi, incluso come contattare il team di vendita, vedi Prezzi di Google Kubernetes Engine.

Versioni

Per informazioni sulle versioni di Google Distributed Cloud, consulta Criteri per il supporto delle versioni.

Installazione di Google Distributed Cloud su bare metal

Poiché i cluster GKE creati utilizzando Google Distributed Cloud vengono eseguiti per la tua infrastruttura, sono altamente configurabili. Una volta selezionato il modello di deployment che soddisfi le tue per esigenze organizzative e casi d'uso particolari: puoi scegliere tra una serie modalità di bilanciamento del carico supportate, opzioni di indirizzamento IP, funzionalità di sicurezza opzioni di connettività e altro ancora. Configurazione di un cluster GKE on bare dell'hardware è necessario prendere decisioni prima e durante l'installazione. Questo il set di documentazione include guide per aiutare il tuo team a scegliere le funzionalità giuste e le opzioni a tua disposizione. Per assicurarti che l'installazione soddisfi le esigenze del tuo consulta i team dedicati al networking e alle applicazioni.