Crea un clúster híbrido de Anthos alojado en Bare Metal en las VM de Compute Engine

En esta página, se muestra cómo configurar un clúster híbrido de Anthos alojado en Bare Metal en el modo de alta disponibilidad (HA) mediante máquinas virtuales (VM) que se ejecutan en Compute Engine.

Puedes probar clústeres de Anthos alojados en Bare Metal con rapidez y sin tener que preparar ningún hardware. Si completas los pasos de esta página, obtendrás un clúster de Anthos activo en un entorno de pruebas de equipos físicos que se ejecuta en Compute Engine.

Para probar clústeres de Anthos alojados en equipos físicos en VM de Compute Engine, completa los siguientes pasos:

  1. Crea seis VM en Compute Engine
  2. Crea una red vxlan entre todas las VM con conectividad L2
  3. Requisitos previos de instalación de clústeres de Anthos alojados en equipos físicos
  4. Implementa un clúster híbrido de Anthos alojado en Bare Metal

  5. Verifica tu clúster

Antes de comenzar

  1. Accede a tu cuenta de Google Cloud. Si eres nuevo en Google Cloud, crea una cuenta para evaluar el rendimiento de nuestros productos en situaciones reales. Los clientes nuevos también obtienen $300 en créditos gratuitos para ejecutar, probar y, además, implementar cargas de trabajo.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.

  6. Anota el ID del proyecto porque lo necesitas para establecer una variable de entorno que se use en las secuencias de comandos y los comandos de esta página. Si seleccionaste un proyecto existente, asegúrate de ser propietario o editor del proyecto.
  7. En tu estación de trabajo Linux, asegúrate de haber instalado la versión más reciente de Google Cloud CLI, la herramienta de línea de comandos para interactuar con Google Cloud. Si ya tienes instalada gcloud CLI, actualiza sus componentes mediante la ejecución del siguiente comando:
    gcloud components update

    Según cómo se haya instalado gcloud CLI, es posible que veas el siguiente mensaje: “No puedes realizar esta acción porque el administrador de componentes de Google Cloud CLI está inhabilitado en esta instalación. Puedes ejecutar el siguiente comando a fin de lograr el mismo resultado para esta instalación:" Sigue las instrucciones a fin de copiar y pegar el comando para actualizar los componentes.

Los pasos que se indican en esta guía se toman de la secuencia de comandos de instalación en el repositorio anthos-samples. La sección de Preguntas frecuentes contiene más información sobre cómo personalizar esta secuencia de comandos para trabajar con algunas variaciones populares.

Crea seis VM en Compute Engine

Completa estos pasos para crear las siguientes VM:

  • Una VM para la estación de trabajo de administrador Una estación de trabajo de administrador aloja las herramientas de la interfaz de línea de comandos (CLI) y archivos de configuración para aprovisionar clústeres durante la instalación, y herramientas de la CLI para interactuar con los clústeres aprovisionados después de la instalación. La estación de trabajo de administrador tendrá acceso a todos los demás nodos del clúster mediante SSH.
  • Tres VM para los tres nodos del plano de control necesarios a fin de ejecutar los clústeres de Anthos en el plano de control de equipos físicos
  • Dos VM para los dos nodos trabajadores necesarios a fin de ejecutar cargas de trabajo en los clústeres de Anthos alojados en un clúster de equipos físicos.
  1. Configura variables de entorno:

    export PROJECT_ID=PROJECT_ID
    export ZONE=ZONE
    export CLUSTER_NAME=CLUSTER_NAME
    export BMCTL_VERSION=1.13.10
    

    Para el ZONE, puedes usar us-central1-a o cualquiera de las otras zonas de Compute Engine .

  2. Ejecuta los siguientes comandos para acceder con tu Cuenta de Google y configura tu proyecto como el predeterminado:

    gcloud auth login
    gcloud config set project $PROJECT_ID
    gcloud config set compute/zone $ZONE
    
  3. Crea la cuenta de servicio baremetal-gcr:

    gcloud iam service-accounts create baremetal-gcr
    
    gcloud iam service-accounts keys create bm-gcr.json \
        --iam-account=baremetal-gcr@"${PROJECT_ID}".iam.gserviceaccount.com
  4. Habilita las APIs y los servicios de Google Cloud:

    gcloud services enable \
        anthos.googleapis.com \
        anthosaudit.googleapis.com \
        anthosgke.googleapis.com \
        cloudresourcemanager.googleapis.com \
        connectgateway.googleapis.com \
        container.googleapis.com \
        gkeconnect.googleapis.com \
        gkehub.googleapis.com \
        serviceusage.googleapis.com \
        stackdriver.googleapis.com \
        monitoring.googleapis.com \
        logging.googleapis.com \
        opsconfigmonitoring.googleapis.com
  5. Otorga permisos adicionales a la cuenta de servicio baremetal-gcr a fin de evitar la necesidad de tener varias cuentas de servicio para diferentes API y servicios:

    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/gkehub.connect" \
      --no-user-output-enabled
    
    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/gkehub.admin" \
      --no-user-output-enabled
    
    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/logging.logWriter" \
      --no-user-output-enabled
    
    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/monitoring.metricWriter" \
      --no-user-output-enabled
    
    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/monitoring.dashboardEditor" \
      --no-user-output-enabled
    
    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/stackdriver.resourceMetadata.writer" \
      --no-user-output-enabled
    
    gcloud projects add-iam-policy-binding "$PROJECT_ID" \
      --member="serviceAccount:baremetal-gcr@$PROJECT_ID.iam.gserviceaccount.com" \
      --role="roles/opsconfigmonitoring.resourceMetadata.writer" \
      --no-user-output-enabled
  6. Cree las variables y los arrays necesarios para todos los comandos de esta página:

    MACHINE_TYPE=n1-standard-8
    VM_PREFIX=abm
    VM_WS=$VM_PREFIX-ws
    VM_CP1=$VM_PREFIX-cp1
    VM_CP2=$VM_PREFIX-cp2
    VM_CP3=$VM_PREFIX-cp3
    VM_W1=$VM_PREFIX-w1
    VM_W2=$VM_PREFIX-w2
    declare -a VMs=("$VM_WS" "$VM_CP1" "$VM_CP2" "$VM_CP3" "$VM_W1" "$VM_W2")
    declare -a IPs=()
  7. Usa el siguiente bucle para crear seis VM:

    for vm in "${VMs[@]}"
    do
        gcloud compute instances create "$vm" \
          --image-family=ubuntu-2004-lts --image-project=ubuntu-os-cloud \
          --zone="${ZONE}" \
          --boot-disk-size 200G \
          --boot-disk-type pd-ssd \
          --can-ip-forward \
          --network default \
          --tags http-server,https-server \
          --min-cpu-platform "Intel Haswell" \
          --enable-nested-virtualization \
          --scopes cloud-platform \
          --machine-type "$MACHINE_TYPE" \
          --metadata "cluster_id=${CLUSTER_NAME},bmctl_version=${BMCTL_VERSION}"
        IP=$(gcloud compute instances describe "$vm" --zone "${ZONE}" \
             --format='get(networkInterfaces[0].networkIP)')
        IPs+=("$IP")
    done

    Este comando crea instancias de VM con los siguientes nombres:

    • abm-ws: La VM para la estación de trabajo de administrador
    • abm-cp1, abm-cp2, abm-cp3: las VM para los nodos del plano de control
    • abm-w1, abm-w2: las VM para los nodos que ejecutan cargas de trabajo
  8. Usa el siguiente bucle para verificar que la conexión SSH esté lista en todas las VM:

    for vm in "${VMs[@]}"
    do
        while ! gcloud compute ssh root@"$vm" --zone "${ZONE}" --command "printf 'SSH to $vm succeeded\n'"
        do
            printf "Trying to SSH into %s failed. Sleeping for 5 seconds. zzzZZzzZZ" "$vm"
            sleep  5
        done
    done

Crea una red vxlan con conectividad L2 entre VM

Usa la funcionalidad vxlan estándar de Linux para crear una red que conecte todas las VM con conectividad L2.

El siguiente comando contiene dos bucles que realizan las siguientes acciones:

  1. Establece una conexión SSH en cada VM.
  2. Actualiza y, luego, instala los paquetes necesarios.
  3. Ejecuta los comandos necesarios para configurar la red con vxlan.

    i=2 # We start from 10.200.0.2/24
    for vm in "${VMs[@]}"
    do
        gcloud compute ssh root@"$vm" --zone "${ZONE}" << EOF
            apt-get -qq update > /dev/null
            apt-get -qq install -y jq > /dev/null
            set -x
            ip link add vxlan0 type vxlan id 42 dev ens4 dstport 0
            current_ip=\$(ip --json a show dev ens4 | jq '.[0].addr_info[0].local' -r)
            printf "VM IP address is: \$current_ip"
            for ip in ${IPs[@]}; do
                if [ "\$ip" != "\$current_ip" ]; then
                    bridge fdb append to 00:00:00:00:00:00 dst \$ip dev vxlan0
                fi
            done
            ip addr add 10.200.0.$i/24 dev vxlan0
            ip link set up dev vxlan0
    
    EOF
        i=$((i+1))
    done

Ahora tienes conectividad L2 dentro de la red 10.200.0.0/24. Las VM tienen las siguientes direcciones IP:

  • VM de la estación de trabajo de administrador: 10.200.0.2
  • VM que ejecutan los nodos del plano de control:
    • 10.200.0.3
    • 10.200.0.4
    • 10.200.0.5
  • VM que ejecutan los nodos trabajadores:
    • 10.200.0.6
    • 10.200.0.7

Requisitos previos de instalación de clústeres de Anthos alojados en equipos físicos

Debes instalar las siguientes herramientas en la estación de trabajo de administrador antes de instalar clústeres de Anthos alojados en Bare Metal:

  • bmctl
  • kubectl
  • Docker

A fin de instalar las herramientas y prepararte para la instalación de clústeres de Anthos alojados en Bare Metal, haz lo siguiente:

  1. Ejecuta los siguientes comandos para descargar la clave de la cuenta de servicio en la estación de trabajo de administrador y, luego, instalar las herramientas necesarias:

    gcloud compute ssh root@$VM_WS --zone "${ZONE}" << EOF
    set -x
    
    export PROJECT_ID=\$(gcloud config get-value project)
    BMCTL_VERSION=\$(curl http://metadata.google.internal/computeMetadata/v1/instance/attributes/bmctl_version -H "Metadata-Flavor: Google")
    export BMCTL_VERSION
    
    gcloud iam service-accounts keys create bm-gcr.json \
      --iam-account=baremetal-gcr@\${PROJECT_ID}.iam.gserviceaccount.com
    
    curl -LO "https://storage.googleapis.com/kubernetes-release/release/$(curl -s https://storage.googleapis.com/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl"
    
    chmod +x kubectl
    mv kubectl /usr/local/sbin/
    mkdir baremetal && cd baremetal
    gsutil cp gs://anthos-baremetal-release/bmctl/$BMCTL_VERSION/linux-amd64/bmctl .
    chmod a+x bmctl
    mv bmctl /usr/local/sbin/
    
    cd ~
    printf "Installing docker"
    curl -fsSL https://get.docker.com -o get-docker.sh
    sh get-docker.sh
    EOF
  2. Ejecuta los siguientes comandos para asegurarte de que root@10.200.0.x funcione. Los comandos realizan estas tareas:

    1. Genera una nueva clave SSH en la estación de trabajo de administrador.
    2. Agregar la clave pública a todas las otras VM de la implementación.
    gcloud compute ssh root@$VM_WS --zone "${ZONE}" << EOF
    set -x
    ssh-keygen -t rsa -N "" -f /root/.ssh/id_rsa
    sed 's/ssh-rsa/root:ssh-rsa/' ~/.ssh/id_rsa.pub > ssh-metadata
    for vm in ${VMs[@]}
    do
        gcloud compute instances add-metadata \$vm --zone ${ZONE} --metadata-from-file ssh-keys=ssh-metadata
    done
    EOF

Implementa un clúster híbrido de Anthos alojado en Bare Metal

El siguiente bloque de código contiene todos los comandos y las opciones de configuración necesarios para completar las siguientes tareas:

  1. Crear el archivo de configuración para el clúster híbrido necesario.
  2. Ejecutar las comprobaciones previas.
  3. Implemente el clúster:
gcloud compute ssh root@$VM_WS --zone "${ZONE}" <<EOF
set -x
export PROJECT_ID=$(gcloud config get-value project)
CLUSTER_NAME=\$(curl http://metadata.google.internal/computeMetadata/v1/instance/attributes/cluster_id -H "Metadata-Flavor: Google")
BMCTL_VERSION=\$(curl http://metadata.google.internal/computeMetadata/v1/instance/attributes/bmctl_version -H "Metadata-Flavor: Google")
export CLUSTER_NAME
export BMCTL_VERSION
bmctl create config -c \$CLUSTER_NAME
cat > bmctl-workspace/\$CLUSTER_NAME/\$CLUSTER_NAME.yaml << EOB
---
gcrKeyPath: /root/bm-gcr.json
sshPrivateKeyPath: /root/.ssh/id_rsa
gkeConnectAgentServiceAccountKeyPath: /root/bm-gcr.json
gkeConnectRegisterServiceAccountKeyPath: /root/bm-gcr.json
cloudOperationsServiceAccountKeyPath: /root/bm-gcr.json
---
apiVersion: v1
kind: Namespace
metadata:
  name: cluster-\$CLUSTER_NAME
---
apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
  name: \$CLUSTER_NAME
  namespace: cluster-\$CLUSTER_NAME
spec:
  type: hybrid
  anthosBareMetalVersion: \$BMCTL_VERSION
  gkeConnect:
    projectID: \$PROJECT_ID
  controlPlane:
    nodePoolSpec:
      clusterName: \$CLUSTER_NAME
      nodes:
      - address: 10.200.0.3
      - address: 10.200.0.4
      - address: 10.200.0.5
  clusterNetwork:
    pods:
      cidrBlocks:
      - 192.168.0.0/16
    services:
      cidrBlocks:
      - 172.26.232.0/24
  loadBalancer:
    mode: bundled
    ports:
      controlPlaneLBPort: 443
    vips:
      controlPlaneVIP: 10.200.0.49
      ingressVIP: 10.200.0.50
    addressPools:
    - name: pool1
      addresses:
      - 10.200.0.50-10.200.0.70
  clusterOperations:
    # might need to be this location
    location: us-central1
    projectID: \$PROJECT_ID
  storage:
    lvpNodeMounts:
      path: /mnt/localpv-disk
      storageClassName: node-disk
    lvpShare:
      numPVUnderSharedPath: 5
      path: /mnt/localpv-share
      storageClassName: local-shared
  nodeConfig:
    podDensity:
      maxPodsPerNode: 250
---
apiVersion: baremetal.cluster.gke.io/v1
kind: NodePool
metadata:
  name: node-pool-1
  namespace: cluster-\$CLUSTER_NAME
spec:
  clusterName: \$CLUSTER_NAME
  nodes:
  - address: 10.200.0.6
  - address: 10.200.0.7
EOB

bmctl create cluster -c \$CLUSTER_NAME
EOF

Verifica tu clúster

Puedes encontrar el archivo kubeconfig del clúster en la estación de trabajo de administrador en el directorio bmctl-workspace de la cuenta raíz. Para verificar tu implementación, completa los siguientes pasos.

  1. Establece una conexión SSH a la estación de trabajo de administrador como raíz:

    gcloud compute ssh root@abm-ws --zone ${ZONE}
    

    Puedes ignorar cualquier mensaje sobre la actualización de la VM y completar este instructivo. Si planeas conservar las VM como entorno de prueba, te recomendamos actualizar el SO o actualizar a la próxima versión, como se describe en la documentación de Ubuntu.

  2. Establece la variable de entorno KUBECONFIG con la ruta de acceso al archivo de configuración del clúster para ejecutar comandos kubectl en el clúster.

    export clusterid=CLUSTER_NAME
    export KUBECONFIG=$HOME/bmctl-workspace/$clusterid/$clusterid-kubeconfig
    kubectl get nodes
    
  3. Establece el contexto actual en una variable de entorno:

    export CONTEXT="$(kubectl config current-context)"
    
  4. Ejecuta el siguiente comando gcloud: Este comando realiza las siguientes acciones:

    • Otorga a tu cuenta de usuario la función clusterrole/cluster-admin de Kubernetes en el clúster.
    • Configura el clúster para que puedas ejecutar comandos de kubectl en tu computadora local sin tener que establecer una conexión SSH a la estación de trabajo de administrador.

    Reemplaza GOOGLE_ACCOUNT_EMAIL por la dirección de correo electrónico asociada con tu cuenta de Google Cloud. Por ejemplo: --users=alex@example.com

    gcloud container fleet memberships generate-gateway-rbac  \
        --membership=CLUSTER_NAME \
        --role=clusterrole/cluster-admin \
        --users=GOOGLE_ACCOUNT_EMAIL \
        --project=PROJECT_ID \
        --kubeconfig=$KUBECONFIG \
        --context=$CONTEXT\
        --apply
    

    El resultado de este comando es similar al siguiente, que se trunca para leer:

    Validating input arguments.
    Specified Cluster Role is: clusterrole/cluster-admin
    Generated RBAC policy is:
    --------------------------------------------
    ...
    
    Applying the generate RBAC policy to cluster with kubeconfig: /root/bmctl-workspace/CLUSTER_NAME/CLUSTER_NAME-kubeconfig, context: CLUSTER_NAME-admin@CLUSTER_NAME
    Writing RBAC policy for user: GOOGLE_ACCOUNT_EMAIL to cluster.
    Successfully applied the RBAC policy to cluster.
    
  5. Cuando termines de explorar, ingresa exit para salir de la estación de trabajo de administrador.

  6. Obtén la entrada kubeconfig que puede acceder al clúster a través de la puerta de enlace de Connect.

    gcloud container fleet memberships get-credentials CLUSTER_NAME
    

    El resultado es similar a este:

    Starting to build Gateway kubeconfig...
    Current project_id: PROJECT_ID
    A new kubeconfig entry "connectgateway_PROJECT_ID_global_CLUSTER_NAME" has been generated and set as the current context.
    
  7. Ahora puedes ejecutar comandos de kubectl a través de la puerta de enlace de Connect:

    kubectl get nodes
    kubectl get namespaces
    

Accede a tu clúster desde la consola de Google Cloud

Para observar tus cargas de trabajo en clústeres de Anthos alojados en Bare Metal en la consola de Google Cloud, debes acceder al clúster. Antes de acceder a la consola por primera vez, debes configurar un método de autenticación. El método de autenticación más fácil de configurar es la identidad de Google. Este método de autenticación te permite acceder con la dirección de correo electrónico asociada a tu cuenta de Google Cloud.

El comando gcloud container fleet memberships generate-gateway-rbac que ejecutaste en la sección anterior configura el clúster para que puedas acceder con tu identidad de Google.

  1. Realiza una estas acciones en la consola de Google Cloud:

    o:

    • En la página Clústeres de Anthos, selecciona el clúster al que desea acceder en la lista de clústeres y, luego, haz clic en Acceder en el panel de información que se muestra.

      Ir a Clústeres de Anthos

  2. Selecciona Usa tu identidad de Google para acceder

  3. Haz clic en Acceder.

Limpia

  1. Conéctate a la estación de trabajo de administrador para restablecer las VM del clúster a su estado antes de la instalación y cancelar el registro del clúster de tu proyecto de Google Cloud:

    gcloud compute ssh root@abm-ws --zone ${ZONE} << EOF
    set -x
    export clusterid=CLUSTER_NAME
    bmctl reset -c \$clusterid
    EOF
    
  2. Enumera todas las VM que tienen abm en su nombre:

    gcloud compute instances list | grep 'abm'
    
  3. Verifica que sea seguro borrar todas las VM que contienen abm en el nombre.

    Después de verificar, puedes borrar las VM de abm mediante la ejecución del siguiente comando:

    gcloud compute instances list --format="value(name)" | grep 'abm'  | xargs gcloud \
        --quiet compute instances delete