Acerca de las cargas de trabajo del modo Autopilot en GKE Standard

Puedes usar ComputeClasses para ejecutar cargas de trabajo de Google Kubernetes Engine (GKE) Autopilot en tus clústeres de modo estándar de GKE. En esta página, se describen los métodos que puedes usar para ejecutar tus cargas de trabajo en el modo Autopilot y se te ayuda a decidir cuándo ejecutar una carga de trabajo en un modo específico.

Esta información está destinada a las siguientes personas:

  • Arquitectos de nube que desean optimizar los costos operativos en las organizaciones
  • Administradores de plataformas que desean reducir la sobrecarga de la administración manual de la infraestructura
  • Ingenieros de confiabilidad de sitios (SRE) que desean transferir el mantenimiento, las actualizaciones y el ajuste de la infraestructura a Google Cloud cuando sea posible.

Ya debes conocer los siguientes conceptos:

Acerca de GKE Autopilot

Autopilot es un modo de operación en GKE en el que Google administra tu infraestructura de nodos, escalamiento, seguridad y funciones preconfiguradas. El modo Autopilot está optimizado para ejecutar la mayoría de las cargas de trabajo de producción en un entorno que aplica la configuración recomendada para la seguridad, la confiabilidad, el rendimiento y la escalabilidad. Para decidir entre el modo Autopilot y el modo Standard según tus requisitos, consulta Acerca de los modos de operación de GKE.

Puedes usar el modo Autopilot de las siguientes maneras:

  • Crea un clúster que use el modo Autopilot: Google administra todo el clúster y aplica prácticas recomendadas para la automatización, la confiabilidad, la seguridad y los costos.
  • Ejecuta cargas de trabajo en modo Autopilot en clústeres estándar: Implementas ComputeClasses de Autopilot y las seleccionas en las cargas de trabajo. Google administra los nodos que GKE crea para esas cargas de trabajo específicas. Tú controlas el clúster y puedes ejecutar tus propios grupos de nodos junto con los nodos que administra GKE.

Acerca del modo Autopilot para ComputeClasses

Un ComputeClass es un recurso personalizado de Kubernetes que define una lista de configuraciones de nodos, como tipos de máquinas o parámetros de configuración de funciones. Puedes seleccionar ComputeClasses específicas en las especificaciones de cargas de trabajo de Kubernetes. Cuando una carga de trabajo que selecciona un ComputeClass necesita un nodo nuevo, GKE intenta aprovisionar el nodo con una de las configuraciones que declara el ComputeClass. GKE prueba cada configuración de ComputeClass en orden y recurre a la siguiente configuración si falla la creación del nodo. Para obtener más información, consulta Acerca de las clases de procesamiento personalizadas.

Para ejecutar cargas de trabajo de Autopilot en tus clústeres de GKE estándar, debes habilitar el modo Autopilot en una ComputeClass y seleccionar esa ComputeClass en cargas de trabajo específicas. Google administra los nodos nuevos que GKE aprovisiona para estas cargas de trabajo, de manera similar a como administra los nodos en los clústeres de Autopilot. La mayoría de los beneficios y las funciones de seguridad del modo Autopilot se aplican a esas cargas de trabajo y a los nodos host.

Las ComputeClasses del modo Autopilot brindan a los administradores de clústeres flexibilidad adicional para elegir el nivel de control que desean sobre cargas de trabajo e infraestructura específicas en su clúster, de las siguientes maneras:

  • Puedes permitir que GKE administre por completo cargas de trabajo específicas ejecutándolas en el modo Autopilot.
  • Conservas el control total sobre las cargas de trabajo y la infraestructura que no usan el modo Autopilot, como los grupos de nodos creados de forma manual.
  • Puedes establecer una ComputeClass de Autopilot como la predeterminada para tu clúster o espacio de nombres, de modo que las cargas de trabajo se ejecuten en el modo de Autopilot, a menos que soliciten explícitamente otra opción.

Estas opciones permiten que los administradores de clústeres decidan el nivel y el alcance con los que usan Autopilot.

Las ComputeClasses del modo Autopilot brindan a los administradores de clústeres flexibilidad adicional para elegir el nivel de control que desean sobre cargas de trabajo e infraestructura específicas en su clúster, de las siguientes maneras:

  • Puedes permitir que GKE administre por completo cargas de trabajo específicas ejecutándolas en el modo Autopilot.
  • Conservas el control total sobre las cargas de trabajo y la infraestructura que no usan el modo Autopilot, como los grupos de nodos creados de forma manual.
  • Puedes establecer una ComputeClass de Autopilot como la predeterminada para tu clúster o espacio de nombres, de modo que las cargas de trabajo se ejecuten en el modo de Autopilot, a menos que soliciten explícitamente otra opción.

Estas opciones permiten que los administradores de clústeres decidan el nivel y el alcance con los que usan Autopilot.

Beneficios de las ComputeClasses de Autopilot en clústeres Standard

Ejecutar algunas de tus cargas de trabajo en el modo Autopilot proporciona beneficios como los siguientes:

  • Reducción de los costos de administración de la infraestructura: Google actualiza, mantiene, configura y ajusta nodos específicos por ti.
  • Usa el modelo de precios de Autopilot: Las cargas de trabajo que usan una ComputeClass de Autopilot se facturan con el modelo de precios de Autopilot. Este modelo de precios incluye la facturación por Pod para las cargas de trabajo que no solicitan hardware específico. Para obtener más información, consulta la sección de precios.
  • Mejora la postura de escalamiento y seguridad: Las cargas de trabajo de Autopilot obtienen beneficios como el acceso a la plataforma de procesamiento optimizada para contenedores, restricciones de seguridad predeterminadas mejoradas y ajuste de escala automático de nodos basado en solicitudes de recursos. Los nodos para esas cargas de trabajo usan funciones como las actualizaciones automáticas de nodos y las reparaciones automáticas.
  • Mejora la confiabilidad: El acuerdo de nivel de servicio (ANS) de GKE incluye un objetivo de nivel de servicio (SLO) de tiempo de actividad de Pod para Autopilot.

Muchos de estos beneficios también los proporcionan los clústeres de Autopilot, que también ofrecen una experiencia más administrada que los clústeres estándar y que incluyen varios beneficios de seguridad, redes y administración de recursos. Para obtener más información, consulta la descripción general de Autopilot.

Selección de hardware en ComputeClasses de Autopilot

En las ComputeClasses de Autopilot, puedes seleccionar hardware específico para tus nodos (como GPUs o tipos de máquinas) o permitir que GKE coloque Pods en una plataforma de procesamiento de uso general optimizada para contenedores. Se recomienda la opción de uso general para la mayoría de las cargas de trabajo de producción que no requieren hardware específico para ejecutarse correctamente.

En la siguiente tabla, se describen estas opciones de configuración, cómo elegir una en un objeto ComputeClass y cómo esta elección afecta tu modelo de facturación:

Tabla 1. Selección de hardware en ComputeClasses de Autopilot
Requisito de la carga de trabajo Configuración recomendada de ComputeClass Modelo de facturación
Cargas de trabajo de uso general

Usa una ComputeClass de Autopilot que tenga la regla de prioridad podFamily para ejecutar cargas de trabajo que no requieran hardware específico en la plataforma de procesamiento optimizada para contenedores de Autopilot. Esta plataforma funciona bien para cargas de trabajo de uso general, como las siguientes:

  • Servidores web
  • Trabajos controlados por eventos
  • Procesamiento por lotes
  • Canalizaciones de CI/CD

Las ComputeClasses integradas de Autopilot que están disponibles para los clústeres de Standard usan la regla de prioridad podFamily.

Modelo de facturación basado en Pods
Cargas de trabajo que necesitan hardware específico

Usa una ComputeClass que utilice cualquier regla de configuración de hardware disponible, como la regla machineFamily o la regla gpus.

Modelo de facturación basado en nodos

Configuración de Autopilot en ComputeClasses

Puedes usar el modo Autopilot en un clúster estándar con una ComputeClass de Autopilot integrada que proporciona GKE o habilitando Autopilot en cualquier ComputeClass personalizada que crees. En las siguientes secciones, se describe cada opción.

Clases de procesamiento de Autopilot integradas

GKE configura ComputeClasses específicas de Autopilot por ti. Puedes seleccionar estas clases integradas de Autopilot en cualquier clúster apto. Las ComputeClasses de Autopilot integradas en los clústeres estándar usan la regla de prioridad podFamily para ejecutar Pods en la plataforma de procesamiento optimizada para contenedores. Para obtener más información, consulta Acerca de las ComputeClasses integradas en GKE.

ComputeClasses de Autopilot personalizadas

Puedes habilitar Autopilot en cualquier ComputeClass personalizada que administres. Esta opción es útil si tus cargas de trabajo tienen requisitos de hardware específicos. El campo autopilot en el recurso personalizado ComputeClass te permite habilitar o inhabilitar Autopilot en una ComputeClass específica.

Para habilitar Autopilot en una ComputeClass existente, debes borrarla, actualizar la configuración y, luego, volver a crear la ComputeClass en tu clúster. Los cambios se aplican a los nodos nuevos que GKE crea para las cargas de trabajo que implementas después de actualizar la ComputeClass de Autopilot.

Si deseas obtener más información para habilitar Autopilot en tus clases de procesamiento personalizadas, consulta Selecciona hardware específico para tus Pods de Autopilot.

Precios

Los precios de GKE Autopilot se aplican a los nodos y las cargas de trabajo que GKE crea para una ComputeClass de Autopilot. En la siguiente tabla, se describe el modelo de facturación que se aplica a las diferentes configuraciones de ComputeClass de Autopilot en tus clústeres del modo estándar.

Tabla 3. Precios de las clases de procesamiento de Autopilot
Modelos de facturación para diferentes configuraciones de ComputeClass
Modelo de facturación basado en Pods El modelo de facturación basado en Pods se aplica a las clases de procesamiento de Autopilot que usan la regla de prioridad podFamily en lugar de seleccionar máquinas o hardware específicos. Las ComputeClasses integradas de Autopilot, que usan la regla podFamily, usan el modelo de facturación basado en Pods.
Modelo de facturación basado en nodos El modelo de facturación basado en nodos se aplica a las clases de procesamiento de Autopilot que solicitan de forma explícita configuraciones de nodos específicos, como instancias N2 o GPUs.

Los precios de Autopilot solo se aplican a las cargas de trabajo y los nodos que usan una ComputeClass de Autopilot. Tu clúster del modo Standard y cualquier otro grupo de nodos que ejecutes seguirán usando los precios del modo Standard de GKE.

Parámetros de configuración preconfigurados para los nodos administrados por Autopilot

Antes de habilitar el modo Autopilot en tus ComputeClasses, debes saber qué esperar de los nodos que crea GKE para ejecutar las cargas de trabajo de Autopilot. Google configura funciones y restricciones de seguridad específicas en los nodos de Autopilot. Como resultado, es posible que el modo Autopilot rechace las cargas de trabajo que se implementan y funcionan correctamente en tus nodos del modo Standard si no cumplen con los requisitos de seguridad de Autopilot.

En la siguiente tabla, se describen los parámetros de configuración de funciones que anulan los parámetros de configuración correspondientes en tu clúster estándar. Si una configuración no se encuentra en esta tabla, los nodos de Autopilot usan el parámetro de configuración del clúster Standard. Por ejemplo, la federación de identidades para cargas de trabajo para GKE no se encuentra en esta tabla, lo que significa que el parámetro de configuración de la federación de identidades para cargas de trabajo para GKE del clúster de Standard se aplica a los nodos de Autopilot que crea GKE.

Tabla 4. Parámetros de configuración preestablecidos para nodos de Autopilot
Función Parámetro de configuración estándar a nivel del clúster Parámetro de configuración del nodo administrado por Autopilot
Actualizaciones y mantenimiento de los nodos

Configurable:

Preconfigurado:

  • Reparación automática de nodos: habilitada
  • Actualización automática de nodos: habilitada
  • Estrategia de actualización de nodos: Actualizaciones de aumento con parámetros preconfigurados
Ajuste de escala automático Configurable: Perfil de ajuste de escala automático Preconfigurado: Perfil de ajuste de escala automático optimize-utilization
Redes Nativo de la VPC o basado en rutas Requiere un clúster nativo de la VPC
Seguridad

Configurable:

  • Cuenta de servicio de IAM de nodo
  • Permisos de acceso
  • Inicio seguro

Preconfigurado:

Sistema operativo del nodo

Configurable:

Preconfigurado:

Disco de arranque del nodo

Configurable:

Configurable:

  • Tipo de disco de arranque: Usa el valor del campo storage.bootDiskType de ComputeClass. Si no se establece este campo, GKE establece el tipo de disco de arranque de la siguiente manera:
    • Si ComputeClass usa reglas de podFamily, GKE usa un disco pd-balanced.
    • Si ComputeClass no usa reglas de podFamily, GKE usa el tipo de disco de arranque predeterminado para el clúster.
  • Tamaño del disco de arranque: GKE usa el valor del campo storage.bootDiskSize de la clase de procesamiento. Si no se establece este campo, GKE establece el tamaño del disco de arranque de la siguiente manera:
Metadatos del nodo

Solicitudes de recursos para cargas de trabajo de Autopilot

Para que las cargas de trabajo de Autopilot se ejecuten de manera eficiente, GKE aplica ciertos valores mínimos y máximos para las solicitudes de CPU, memoria y almacenamiento efímero en tus Pods. GKE también aplica solicitudes predeterminadas a los Pods que no solicitan explícitamente uno de estos recursos. Los valores específicos para los requisitos de recursos mínimos, máximos y predeterminados en las cargas de trabajo de GKE Autopilot varían según el tipo de hardware que usan tus Pods.

En el caso del almacenamiento efímero, el valor predeterminado si no solicitas almacenamiento efímero es el mismo para todas las ComputeClasses y selecciones de hardware. Para obtener más información, consulta Solicitudes de recursos predeterminados.

En la siguiente tabla, se proporcionan vínculos a los requisitos de CPU y memoria para tus solicitudes de Pod, según el tipo de hardware:

Tabla 5. Requisitos de CPU y memoria de Autopilot
Tipo de recurso Solicitudes mínimas y máximas Solicitudes predeterminadas
Pods de uso general
podFamily regla de prioridad
Consulta la fila "Propósito general" en la tabla Mínimos y máximos para ComputeClasses. Consulta la fila “Propósito general” en la tabla Solicitudes predeterminadas para ComputeClasses.
GPU y TPU Depende del tipo y la cantidad de aceleradores de hardware. Para obtener más información, consulta Mínimos y máximos para la clase de procesamiento de Accelerator. Depende del tipo y la cantidad de aceleradores de hardware. Para obtener más información, consulta Solicitudes predeterminadas para aceleradores.
Tipos y familias de máquinas específicos de Compute Engine
  • Mínimo: No hay valores mínimos para la CPU ni la memoria.
  • Máximo: El valor máximo es la capacidad de recursos de la instancia de Compute Engine.
Para cualquier tipo o familia de máquinas de Compute Engine, las solicitudes predeterminadas en la fila "Uso general" de la tabla Solicitudes predeterminadas para ComputeClasses.

¿Qué sigue?