Crea un cluster ibrido Anthos su Bare Metal su VM di Compute Engine utilizzando Terraform

Questo documento mostra come configurare VM su Compute Engine con Terraform per installare e provare Cluster Anthos on bare metal in modalità ad alta disponibilità (HA). Per informazioni su come utilizzare Google Cloud CLI al fine di questo approccio, consulta Prova Cluster Anthos on bare metal sulle VM di Compute Engine.

Puoi provare Cluster Anthos on bare metal in modo rapido e senza dover preparare alcun hardware. Gli script Terraform forniti creano una rete di VM su Compute Engine che può essere utilizzata per eseguire i cluster Anthos su Bare Metal. In questo tutorial, utilizziamo il modello di deployment dei cluster ibridi.

Completa i seguenti passaggi per eseguire un cluster di esempio:

  1. Esegui lo script Terraform per configurare una rete di VM su Compute Engine
  2. Esegui il deployment di un cluster ibrido
  3. Verifica il cluster

Prima di iniziare

Il deployment richiede le seguenti risorse:

Configura la rete VM su Compute Engine

In questa sezione vengono utilizzati gli script Terraform del repository anthos-samples. Gli script configurano Compute Engine con le seguenti risorse:

  • Sei VM per eseguire il deployment del cluster ibrido:
    • Una VM amministrativa utilizzata per eseguire il deployment del cluster ibrido nelle altre macchine.
    • Tre VM per i tre nodi del piano di controllo necessari per eseguire il piano di controllo del cluster ibrido.
    • Due VM per i due nodi worker necessarie per eseguire carichi di lavoro sul cluster ibrido.
  • Una rete overlay VxLAN tra tutti i nodi per emulare la connettività L2.
  • Accesso SSH ai nodi plane-plan e worker dalla VM amministrativa.

Infrastruttura Bare Metal su Google Cloud utilizzando le VM di Compute Engine

Puoi modificare il numero di nodi nel cluster aggiungendo nuovi nomi ai nodi alla variabile Terraform instance_count:

###################################################################################
# The recommended instance count for High Availability (HA) is 3 for Control plane
# and 2 for Worker nodes.
###################################################################################
variable "instance_count" {
  description = "Number of instances to provision per layer (Control plane and Worker nodes) of the cluster"
  type        = map(any)
  default = {
    "controlplane" : 3
    "worker" : 2
  }
}

  1. Scarica gli script Terraform per anthos-bm-gcp-terraform di esempio:

    git clone https://github.com/GoogleCloudPlatform/anthos-samples
    cd anthos-samples/anthos-bm-gcp-terraform
    
  2. Aggiorna il file terraform.tfvars.sample in modo da includere variabili specifiche per il tuo ambiente:

    project_id       = "PROJECT_ID"
    region           = "GOOGLE_CLOUD_REGION"
    zone             = "GOOGLE_CLOUD_ZONE"
    credentials_file = "PATH_TO_GOOGLE_CLOUD_SERVICE_ACCOUNT_KEY_FILE"
    
  3. Rinomina il file terraform.tfvars.sample con il nome predefinito utilizzato da terrazzaform per il file delle variabili:

    mv terraform.tfvars.sample terraform.tfvars
    
  4. Inizializza la directory di esempio come directory di lavoro Terraform. Questa operazione imposta le configurazioni di gestione dello stato di Terraform richieste, in modo simile a quanto segue: git init:

    terraform init
    
  5. Creare un piano di esecuzione Terraform. Questo passaggio confronta lo stato delle risorse, verifica gli script e crea un piano di esecuzione:

    terraform plan
    
  6. Applica le modifiche descritte nello script Terraform. Questo passaggio esegue il piano sul provider specificato (in questo caso Google Cloud) per raggiungere lo stato di risorse desiderato:

    terraform apply  # when prompted to confirm the Terraform plan, type 'Yes' and enter
    

Esegui il deployment del cluster ibrido

Al termine dell'esecuzione di Terraform, potrai eseguire il deployment del cluster ibrido.

  1. Utilizza SSH per connetterti all'host amministrativo:

    gcloud compute ssh tfadmin@cluster1-abm-ws0-001 --project=PROJECT_ID --zone=GOOGLE_CLOUD_ZONE
    

    Puoi ignorare eventuali messaggi sull'aggiornamento della VM e completare questo tutorial. Se prevedi di mantenere le VM come ambiente di test, potresti voler aggiornare il sistema operativo o eseguire l'upgrade alla release successiva, come descritto nella documentazione di Ubuntu.

  2. Esegui il blocco di codice seguente per creare il cluster ibrido cluster1 nelle VM di Compute Engine configurate:

    sudo ./run_initialization_checks.sh && \
    sudo bmctl create config -c cluster1 && \
    sudo cp ~/cluster1.yaml bmctl-workspace/cluster1 && \
    sudo bmctl create cluster -c cluster1
    

L'esecuzione del comando bmctl avvia la configurazione di un nuovo cluster ibrido. Questo include l'esecuzione di controlli preflight sui nodi, la creazione di cluster amministrativi e utente e la registrazione del cluster con Google Cloud utilizzando Connetti. L'intera configurazione può richiedere fino a 15 minuti. Durante la creazione del cluster viene visualizzato il seguente output:

    Created config: bmctl-workspace/cluster1/cluster1.yaml
    Creating bootstrap cluster... OK
    Installing dependency components... OK
    Waiting for preflight check job to finish... OK
    - Validation Category: machines and network
            - [PASSED] 10.200.0.3
            - [PASSED] 10.200.0.4
            - [PASSED] 10.200.0.5
            - [PASSED] 10.200.0.6
            - [PASSED] 10.200.0.7
            - [PASSED] gcp
            - [PASSED] node-network
    Flushing logs... OK
    Applying resources for new cluster
    Waiting for cluster to become ready OK
    Writing kubeconfig file
    kubeconfig of created cluster is at bmctl-workspace/cluster1/cluster1-kubeconfig, please run
    kubectl --kubeconfig bmctl-workspace/cluster1/cluster1-kubeconfig get nodes
    to get cluster node status.
    Please restrict access to this file as it contains authentication credentials of your cluster.
    Waiting for node pools to become ready OK
    Moving admin cluster resources to the created admin cluster
    Flushing logs... OK
    Deleting bootstrap cluster... OK

Verifica e interagisci con il cluster

Puoi trovare il file kubeconfig del tuo cluster sulla macchina di amministrazione nella directory bmctl-workspace. Per verificare il deployment, completa i passaggi seguenti.

  1. Se hai eseguito la disconnessione dall'host amministratore, utilizza SSH per connetterti all'host:

    # You can copy the command from the output of the Terraform execution above
    gcloud compute ssh tfadmin@cluster1-abm-ws0-001 --project=PROJECT_ID --zone=GOOGLE_CLOUD_ZONE
    
  2. Imposta la variabile di ambiente KUBECONFIG con il percorso del file di configurazione del cluster per eseguire i comandi kubectl sul cluster:

    export CLUSTER_ID=cluster1
    export KUBECONFIG=$HOME/bmctl-workspace/$CLUSTER_ID/$CLUSTER_ID-kubeconfig
    kubectl get nodes
    

    Dovresti vedere i nodi del cluster stampati, in modo simile al seguente output:

    NAME          STATUS   ROLES    AGE   VERSION
    cluster1-abm-cp1-001   Ready    master   17m   v1.18.6-gke.6600
    cluster1-abm-cp2-001   Ready    master   16m   v1.18.6-gke.6600
    cluster1-abm-cp3-001   Ready    master   16m   v1.18.6-gke.6600
    cluster1-abm-w1-001    Ready    <none>   14m   v1.18.6-gke.6600
    cluster1-abm-w2-001    Ready    <none>   14m   v1.18.6-gke.6600
    

Accedi al tuo cluster dalla console Google Cloud

Per osservare i carichi di lavoro nella console Google Cloud, devi accedere al cluster.

Per istruzioni e per saperne di più sull'accesso al tuo cluster, vedi Accedere a un cluster dalla console Google Cloud.

Esegui la pulizia

Puoi eseguire la pulizia della configurazione del cluster in due modi.

Console

Terraform

  • Annulla la registrazione del cluster prima di eliminare tutte le risorse create da Terraform.
# Use SSH to connect to the admin host
gcloud compute ssh tfadmin@cluster1-abm-ws0-001 --project=PROJECT_ID --zone=GOOGLE_CLOUD_ZONE

# Reset the cluster
export CLUSTER_ID=cluster1
export KUBECONFIG=$HOME/bmctl-workspace/$CLUSTER_ID/$CLUSTER_ID-kubeconfig
sudo bmctl reset --cluster $CLUSTER_ID

# log out of the admin host
exit
  • Utilizza Terraform per eliminare tutte le risorse.
terraform destroy --auto-approve