Questa pagina è la prima parte di una guida che illustra l'utilizzo del software Google Distributed Cloud (in precedenza Google Distributed Cloud Virtual) per creare una piccola installazione di proof of concept dei cluster GKE sull'hardware bare metal. Questo documento mostra come configurare un ambiente hardware minimo e pianificare gli indirizzi IP. L'articolo successivo Creare cluster di base spiega come creare un cluster di amministrazione e un cluster utente.
Questa pagina è rivolta ad amministratori, architetti e operatori che configurano, monitorano e gestiscono il ciclo di vita dell'infrastruttura tecnologica di base. Per approfondire i ruoli comuni e le attività di esempio a cui facciamo riferimento nei contenuti di Google Cloud, consulta Ruoli e attività comuni degli utenti di GKE Enterprise.
L'infrastruttura configurata utilizzando questa guida potrebbe non essere adatta alle tue effettive esigenze di produzione e ai tuoi casi d'uso. Per ulteriori informazioni sulle installazioni di produzione, consulta Scegliere un modello di deployment.
Prima di iniziare
- Leggi l'articolo Informazioni su Google Distributed Cloud.
- Acquisisci familiarità con alcuni concetti di base di Google Cloud, tra cui progetti, autorizzazioni IAM e account di servizio.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Prendi nota dell'ID progetto Google Cloud, perché ti servirà in seguito.
Panoramica della procedura
La configurazione dell'infrastruttura minima è composta dai seguenti passaggi principali:
Configura la workstation di amministrazione. Configura una workstation di amministrazione Linux per le attività di gestione on-premise. Potrebbe essere una macchina esistente o dedicata che può gestire più cluster.
Configura le macchine dei nodi del cluster. Configura almeno tre macchine per i nodi: un nodo del cluster di amministrazione, un nodo del piano di controllo del cluster utente e un nodo worker del cluster utente.
Pianifica la tua attività di networking. Pianifica gli indirizzi IP delle macchine dei nodi, degli indirizzi IP virtuali (VIP) e degli intervalli CIDR di servizi e pod.
Esamina le risorse Google Cloud richieste. Per creare cluster, il tuo progetto Google Cloud richiede API e account di servizio Google specifici.
1. Configura la workstation di amministrazione
La workstation di amministrazione ospita strumenti e file di configurazione per creare e lavorare con i cluster.
Requisiti hardware
La workstation di amministrazione richiede una notevole potenza di calcolo, memoria e spazio di archiviazione per eseguire gli strumenti e archiviare le risorse associate alla creazione e alla gestione dei cluster.
Assicurati che la workstation di amministrazione soddisfi i seguenti requisiti hardware:
- Almeno 2 core CPU
- Almeno 4 GB di RAM
- Almeno 128 GiB di spazio di archiviazione
Requisiti del sistema operativo
Per eseguire bmctl
e creare un cluster, la workstation di amministrazione deve avere gli stessi requisiti del sistema operativo (OS) dei nodi. Ogni macchina deve eseguire
una versione supportata di Ubuntu.
Configura il sistema operativo e il software
Nella workstation di amministrazione, installa e configura quanto segue:
Configurare Ubuntu
Installa la gcloud CLI
Installa
kubectl
Installa
bmctl
Configura il sistema operativo
Esegui i seguenti comandi per aggiornare le impostazioni del firewall, installare e configurare Docker e assicurarti che ogni macchina utilizzi la sincronizzazione dell'ora:
Disattiva Uncomplicated Firewall (UFW) e verifica il relativo stato:
sudo ufw disable sudo ufw status
Rimuovi eventuali versioni precedenti di Docker, aggiorna il gestore dei pacchetti e installa la versione più recente di Docker:
sudo apt-get remove docker docker-engine docker.io containerd runc sudo apt-get update sudo apt-get install \ apt-transport-https \ ca-certificates \ curl \ gnupg-agent \ software-properties-common \ docker.io
Verifica di eseguire la versione 19.03 o successive di Docker:
sudo docker version
Sia la versione del client sia quella del server devono essere 19.03 o successive, come mostrato nella seguente risposta di esempio:
Client: Version: 20.10.21 API version: 1.41 Go version: go1.18.1 ... Server: Engine: Version: 20.10.21 API version: 1.41 (minimum version 1.12) Go version: go1.18.1 ...
Crea il gruppo
docker
.sudo groupadd docker
Aggiungiti al gruppo Docker:
sudo usermod -aG docker $USER
Esegui il seguente comando per attivare le modifiche al gruppo:
newgrp docker
Esegui il seguente comando per verificare che l'orologio di sistema sia sincronizzato:
timedatectl
L'output di
timedatectl
dovrebbe contenere il seguente stato:System clock synchronized: yes
Installa Google Cloud CLI
Per installare Google Cloud CLI su Ubuntu, segui le istruzioni riportate in questa guida all'installazione.
Per configurare gcloud CLI, segui questi passaggi sulla workstation di amministrazione:
Accedi per impostare la proprietà
account
di gcloud CLI:gcloud auth login
Imposta la proprietà
project
dell'interfaccia a riga di comando gcloud:gcloud config set project PROJECT_ID
Sostituisci
PROJECT_ID
con l'ID del tuo progetto Google Cloud.Verifica che le proprietà
account
eproject
siano impostate correttamente:gcloud config list
L'output mostra i valori delle proprietà
account
eproject
. Ad esempio:[core] account = my-name@google.com disable_usage_reporting = False project = my-project-1234 Your active configuration is: [default]
Installa kubectl
Per installare kubectl
:
Esegui il comando seguente sulla workstation di amministrazione:
gcloud components install kubectl
Installa bmctl
bmctl
è lo strumento a riga di comando proprietario per Google Distributed Cloud che puoi utilizzare per la creazione e la gestione dei cluster.
Per installare bmctl
sulla workstation di amministrazione:
Crea una directory
baremetal
e aggiungila al percorso. Se ti trovi nella home directory, i comandi sono:mkdir baremetal export PATH="$HOME/baremetal:$PATH"
Esegui il seguente comando per scaricare la versione più recente del file binario
bmctl
e renderlo eseguibile:gcloud storage cp gs://anthos-baremetal-release/bmctl/1.30.300-gke.84/linux-amd64/bmctl . chmod +x ./bmctl
Verifica che
bmctl
sia installato ed eseguibile:bmctl version
La risposta dovrebbe essere simile alla seguente:
[2023-05-12 17:36:16+0000] bmctl version: 1.14.2-gke.11, git commit: 4ff1347446a93925a079000b50437d4ecebcdf3a, build date: Mon Feb 27 14:07:30 PST 2023
Connettività
La workstation di amministrazione deve avere accesso a Google Cloud e a tutti i nodi del cluster.
Accesso a Google Cloud
La workstation di amministrazione accede a Google Cloud per scaricare e installare strumenti e immagini, elaborare richieste di autorizzazione, creare account di servizio, gestire il logging e il monitoraggio e altro ancora. Non puoi creare cluster senza accesso a Google Cloud.
Accedere dalla workstation di amministrazione
Per creare e gestire i cluster dalla workstation di amministrazione, devi disporre del seguente accesso alle macchine dei nodi:
- Connettività di livello 3 a tutte le macchine nodo del cluster.
- Accesso al VIP del control plane.
- Accesso SSH senza password a tutte le macchine dei nodi del cluster come
root
o come utente con privilegisudo
senza password.
La sezione seguente contiene le istruzioni per configurare SSH sulla workstation amministrativo e sulle macchine dei nodi.
2. Configura le macchine dei nodi del cluster
Per l'installazione minima di un singolo cluster di amministrazione non ad alta disponibilità e un singolo cluster utente non ad alta disponibilità, sono necessarie tre macchine:
Una macchina per un cluster di amministrazione con un nodo del piano di controllo.
Due macchine per un cluster utente con un nodo del piano di controllo e un nodo worker.
Requisiti hardware
Ogni macchina del nodo deve soddisfare i seguenti requisiti hardware:
- Almeno 2 core CPU
- Almeno 4 GB di RAM
- Almeno 128 GiB di spazio di archiviazione
Requisiti del sistema operativo
Ogni macchina del nodo deve eseguire una versione supportata di Ubuntu.
Configurare Ubuntu
Configura Ubuntu su ogni nodo con le stesse istruzioni utilizzate per la workstation di amministrazione.
Configurare l'accesso SSH ai nodi
La workstation di amministrazione deve avere accesso SSH senza password a tutte le macchine dei nodi del cluster. Puoi configurare SSH come root
o con un utente che dispone dei privilegi sudo
senza password.
Di seguito sono riportati i passaggi di alto livello per configurare SSH per Google Distributed Cloud:
Installa e configura SSH su tutte le macchine
Crea le chiavi SSH e copia la chiave pubblica su ogni macchina del nodo
Disattivare l'autenticazione tramite password sulle macchine dei nodi
Verifica l'accesso SSH tra la workstation di amministrazione e le macchine dei nodi
Installa e configura SSH su tutte le macchine
Google Distributed Cloud richiede la comunicazione SSH senza password tra la workstation di amministrazione e i nodi del cluster. I seguenti passaggi devono essere eseguiti sulla workstation di amministrazione e su ogni macchina del nodo.
Per configurare SSH sulle macchine con Ubuntu:
Se non hai ancora un server SSH in esecuzione, installane uno ora:
sudo apt update sudo apt install openssh-server sudo systemctl status ssh
Attiva l'autenticazione tramite password SSH di
root
rimuovendo il commento o aggiungendo le righePermitRootLogin
ePasswordAuthentication
nel file/etc/ssh/sshd_config
e impostando i valori suyes
:# Authentication: #LoginGraceTime 2m PermitRootLogin yes #StrictModes yes #MaxAuthTries 6 #MaxSessions 10 ... PasswordAuthentication yes
Imposta una password root:
sudo passwd root
Per applicare le modifiche alla configurazione SSH, riavvia il servizio SSH:
sudo systemctl restart ssh.service
Riavvia il computer.
Verifica che SSH funzioni stabilendo una connessione SSH da un'altra macchina.
Crea le chiavi SSH e copia la chiave pubblica su ogni macchina del nodo
Per connessioni sicure senza password tra la workstation di amministrazione e i nodi, crea una chiave SSH sulla workstation di amministrazione e condividi la chiave pubblica con i nodi.
Nella workstation di amministrazione, genera una coppia di chiavi pubblica e privata. Non impostare una passphrase per le chiavi:
ssh-keygen -t rsa
Nella workstation di amministrazione, copia la chiave pubblica generata in ciascuna delle tue macchine node:
ssh-copy-id -i PUBLIC_KEY root@CLUSTER_NODE_IP
Sostituisci quanto segue:
PUBLIC_KEY
: il percorso del file contenente la chiave pubblica SSH. Per impostazione predefinita, il percorso è/home/USERNAME/.ssh/id_rsa.pub
CLUSTER_NODE_IP
: l'indirizzo IP della macchina del nodo
Disattivare l'autenticazione tramite password sulle macchine dei nodi
A questo punto, non è più necessario attivare l'autenticazione tramite password.
Per ogni macchina del nodo:
Apri
/etc/ssh/sshd_config
e impostaPasswordAuthentication
suno
, quindi salvate il file.Riavvia il servizio SSH.
sudo systemctl restart ssh.service
Verifica l'accesso SSH tra la workstation di amministrazione e le macchine dei nodi
Quando SSH è configurato correttamente, puoi stabilire una connessione SSH alla macchina del nodo dalla workstation di amministrazione (come utente root) senza una password.
Per verificare che l'autenticazione con chiave pubblica funzioni tra la workstation di amministrazione e i nodi del cluster:
Nella workstation di amministrazione, esegui il seguente comando per ogni macchina del nodo:
ssh -o IdentitiesOnly=yes -i PRIVATE_KEY root@CLUSTER_NODE_IP
Sostituisci quanto segue:
PRIVATE_KEY
: il percorso del file contenente la chiave privata SSH. Per impostazione predefinita, il percorso è/home/USERNAME/.ssh/id_rsa
CLUSTER_NODE_IP
: l'indirizzo IP della macchina del nodo
3. Pianificare il networking
Quando installi i cluster, è importante pianificare gli indirizzi IP, inclusa la verifica di non creare conflitti di indirizzi. Potresti dover chiedere all'amministratore di rete di aiutarti a trovare indirizzi adatti, anche per questa semplice installazione. Se non si contano i CIDR di pod e servizi, sono necessari almeno 15 indirizzi IP univoci per un'installazione minima del cluster di amministrazione e del cluster utente.
Pianifica e specifica gli indirizzi IP per i seguenti componenti del cluster:
- Nodi del cluster: devi avere un indirizzo IP per ogni macchina del nodo
- Indirizzi IP virtuali (VIP): sono necessari VIP per accedere ai server API Kubernetes, al proxy in entrata e ai servizi di tipo LoadBalancer
- Pod e servizi: sono necessari intervalli di indirizzi CIDR per ogni pod e servizio in esecuzione sui tuoi cluster
Il resto di questa sezione contiene esempi illustrativi di valori che funzionano per questa installazione in una rete ipotetica. I tuoi valori saranno diversi.
Per questa piccola installazione, inserisci la workstation di amministrazione, il nodo del cluster di amministrazione e i nodi del cluster utente nello stesso dominio di livello 2. Ad esempio, supponiamo che tutti gli indirizzi IP nell'intervallo 172.16.20.0/24
vengano instradati a un determinato dominio di livello 2. Supponiamo inoltre che l'amministratore di rete ti dica che puoi utilizzare 172.16.20.10
- 172.16.20.12
per gli indirizzi delle macchine dei nodi e 172.16.0.13
-
172.16.20.24
per i VIP.
Il seguente diagramma mostra un dominio di livello 2 con una workstation di amministrazione, un cluster di amministrazione e un cluster utente:
Indirizzi IP di esempio dei nodi del cluster
La tabella seguente mostra un esempio di come è possibile utilizzare gli indirizzi IP per i nodi del cluster:
Computer | Descrizione | Indirizzo IP |
---|---|---|
Nodo del control plane del cluster di amministrazione | Macchina fisica che funge da nodo del control plane per il cluster di amministrazione | 172.16.20.10 |
Nodo del control plane del cluster utente | Macchina fisica che funge da nodo del control plane per il cluster utente | 172.16.20.11 |
Nodo worker del cluster utente | Macchina fisica che esegue i carichi di lavoro utente | 172.16.20.12 |
Esempi di indirizzi IP virtuali (VIP)
La tabella seguente mostra un esempio di come specificare i VIP per i cluster:
VIP | Descrizione | Indirizzo IP |
---|---|---|
Indirizzo VIP del control plane del cluster di amministrazione | Indirizzo VIP del control plane del cluster di amministrazione (server API Kubernetes del cluster di amministrazione) | 172.16.20.13 |
Indirizzo VIP del control plane del cluster utente | Indirizzo VIP del control plane del cluster utente (server API Kubernetes del cluster utente) | 172.16.20.14 |
Indirizzo VIP in entrata | VIP in entrata (incluso nell'intervallo di pool di indirizzi MetalLB) | 172.16.20.15 |
Indirizzi VIP del servizio | Dieci indirizzi da utilizzare come indirizzi IP esterni per i servizi di tipo
LoadBalancer . Gli indirizzi vengono allocati in base alle esigenze sui nodi del cluster utente.
Questo intervallo include il VIP in entrata. Questa sovrapposizione di indirizzi IP è un requisito per MetalLB, il bilanciatore del carico in bundle predefinito. |
172.16.20.15 - 172.16.20.24 |
Indirizzi IP per pod e servizi
Oltre agli indirizzi IP specificati per i nodi e i VIP del cluster,
devi specificare gli indirizzi per i pod e i servizi. Specifica un intervallo CIDR da utilizzare per gli indirizzi IP dei pod e un altro intervallo CIDR da utilizzare per gli indirizzi ClusterIP
dei servizi Kubernetes. Utilizza indirizzi IP nello spazio di indirizzi privato, come descritto nel documento RFC 1918.
Questi indirizzi vengono specificati nell'ambito della configurazione del cluster, come illustrato nella sezione successiva di questa guida.
Nell'ambito della pianificazione IP, decidi quali intervalli CIDR vuoi utilizzare per i pod e i servizi. A meno che tu non abbia un motivo per farlo, utilizza gli intervalli suggeriti che seguono:
Finalità | Intervallo CIDR precompilato |
---|---|
Pod del cluster di amministrazione | 192.168.0.0/16 |
Servizi del cluster di amministrazione | 10.96.0.0/20 |
Pod del cluster utente | 192.168.0.0/16 |
Servizi di cluster di utenti | 10.96.0.0/20 |
Gli intervalli suggeriti illustrano i seguenti punti:
L'intervallo CIDR del pod può essere lo stesso per più cluster nel modello di rete predefinito in modalità isola.
L'intervallo CIDR del servizio può essere lo stesso per più cluster.
In genere, in un cluster sono necessari più pod che servizi, quindi probabilmente vorrai un intervallo CIDR del pod più grande dell'intervallo CIDR del servizio. Ad esempio, l'intervallo di pod suggerito per un cluster di utenti ha 2(32-16) = 216 indirizzi, ma l'intervallo di servizio suggerito per un cluster di utenti ha solo 2(32-20) = 212 indirizzi.
Evitare la sovrapposizione
Per evitare sovrapposizioni con gli indirizzi IP raggiungibili sulla tua rete, potrebbe essere necessario utilizzare intervalli CIDR diversi da quelli suggeriti in precedenza. Gli intervalli di servizi e pod non devono sovrapporsi a nessun indirizzo esterno al cluster che vuoi raggiungere dall'interno del cluster.
Ad esempio, supponiamo che l'intervallo di servizio sia 10.96.232.0/24
e l'intervallo di pod sia 192.168.0.0/16
. Il traffico inviato da un pod a un indirizzo in uno di questi intervalli viene considerato all'interno del cluster e non può raggiungere destinazioni esterne al cluster.
In particolare, gli intervalli di servizi e pod non devono sovrapporsi a:
Indirizzi IP dei nodi in qualsiasi cluster
Indirizzi IP utilizzati dalle macchine del bilanciatore del carico
VIP utilizzati dai nodi del control plane e dai bilanciatori del carico
Indirizzo IP dei server DNS o NTP
4. Esamina le risorse Google Cloud richieste
Prima di poter creare cluster, Google Distributed Cloud richiede l'abilitazione di un insieme specifico di API Google nel progetto Google Cloud associato. Per utilizzare le API Google, Google Distributed Cloud richiede account di servizio configurati con ruoli IAM specifici nel progetto Google Cloud associato.
La procedura per la creazione dei cluster nella parte successiva di questa guida, Creare cluster di base, abilita le API e crea automaticamente i service account.
Di seguito sono riportate le API Google abilitate automaticamente:
anthos.googleapis.com
anthosaudit.googleapis.com
anthosgke.googleapis.com
cloudresourcemanager.googleapis.com
connectgateway.googleapis.com
container.googleapis.com
gkeconnect.googleapis.com
gkehub.googleapis.com
gkeonprem.googleapis.com
iam.googleapis.com
logging.googleapis.com
monitoring.googleapis.com
opsconfigmonitoring.googleapis.com
serviceusage.googleapis.com
stackdriver.googleapis.com
storage.googleapis.com
La tabella seguente descrive gli account di servizio creati automaticamente:
Service account | Finalità | Ruoli |
---|---|---|
anthos-baremetal-gcr | Google Distributed Cloud utilizza questo account di servizio per scaricare immagini container da Container Registry. | Nessuno |
anthos-baremetal-connect | Connect Agent utilizza questo account di servizio per mantenere una connessione tra il cluster e Google Cloud. In questo modo puoi accedere alle funzionalità di gestione del cluster e dei carichi di lavoro, tra cui la console Google Cloud e il gateway di connessione, per interagire con il cluster. | roles/gkehub.connect |
anthos-baremetal-register | L'agente Connect utilizza questo account di servizio per registrare i cluster in un parco risorse. | roles/gkehub.admin |
anthos-baremetal-cloud-ops | L'agente Stackdriver utilizza questo account di servizio per esportare log e metriche dai cluster in Cloud Logging e Cloud Monitoring. |
roles/logging.logWriter roles/monitoring.metricWriter roles/stackdriver.resourceMetadata.writer roles/opsconfigmonitoring.resourceMetadata.writer roles/monitoring.dashboardEditor |