Requisitos previos de la máquina del nodo del clúster

Google Distributed Cloud admite una amplia variedad de sistemas que se ejecutan en el hardware compatible con las distribuciones del sistema operativo de destino. Una configuración de Google Distributed Cloud puede ejecutarse en hardware mínimo o en varias máquinas para brindar flexibilidad, disponibilidad y rendimiento.

Sin importar la configuración de Google Distributed Cloud, los nodos y los clústeres deben tener suficientes recursos de CPU, RAM y almacenamiento para satisfacer las necesidades de los clústeres y las cargas de trabajo que ejecutas.

Cuando instalas Google Distributed Cloud, puedes crear diferentes tipos de clústeres:

  • Un clúster de usuario que ejecuta cargas de trabajo.
  • Un clúster de administrador crea y controla clústeres de usuario para ejecutar cargas de trabajo.
  • Un clúster independiente es un clúster único que puede administrar y ejecutar cargas de trabajo, pero un clúster independiente no puede crear ni administrar clústeres de usuarios.
  • Un clúster híbrido puede administrar y ejecutar cargas de trabajo, y un clúster híbrido también puede crear y administrar clústeres de usuario adicionales.

Además del tipo de clúster, puedes elegir entre los siguientes perfiles de instalación en términos de requisitos de recursos:

  • Predeterminado: El perfil predeterminado tiene requisitos de recursos del sistema estándar y puedes usarlo para todos los tipos de clústeres.

  • Edge: El perfil de Edge redujo significativamente los requisitos de los recursos del sistema. Se recomienda el uso de este perfil para dispositivos perimetrales con recursos limitados. Solo puedes usar el perfil perimetral para clústeres independientes.

Requisitos de recursos para todos los tipos de clústeres que usan el perfil predeterminado

En la siguiente tabla, se describen los requisitos mínimos y recomendados de hardware que Google Distributed Cloud necesita para operar y administrar clústeres de administrador, híbridos, de usuario e independientes mediante el perfil predeterminado:

Recurso Mínimo Recomendado
CPUs / vCPUs* 4 núcleos 8 núcleos
RAM 16 GiB 32 GiB
Almacenamiento 128 GiB 256 GiB

* Google Distributed Cloud solo admite CPU x86-64 y CPU virtuales a nivel de microarquitectura v3 (x86-64-v3) y superior.

Requisitos de recursos para clústeres independientes que usan el perfil perimetral

En la siguiente tabla, se describen los requisitos mínimos y recomendados de hardware que Google Distributed Cloud necesita para operar y administrar clústeres independientes mediante el perfil perimetral:

Recurso Mínimo Recomendado
CPUs / vCPUs* 2 núcleos 4 núcleos
RAM Ubuntu: 4 GiB

RHEL: 6 GiB

Ubuntu: 8 GiB

RHEL: 12 GiB

Almacenamiento 128 GiB 256 GiB

* Google Distributed Cloud solo admite CPU x86-64 y CPU virtuales a nivel de microarquitectura v3 (x86-64-v3) y superior.

Para configurar clústeres independientes con el perfil de Edge, sigue estas prácticas recomendadas:

  • Ejecuta bmctl en una estación de trabajo independiente. Si debes ejecutar bmctl en el nodo del clúster de destino, necesitas 2 GiB de memoria para cumplir con los requisitos mínimos. Por ejemplo, necesitas 6 GiB para Ubuntu y 8 GiB para RHEL.

  • Establece MaxPodsPerNode en 110. El clúster ejecuta un máximo de 30 pods de usuario por nodo en promedio. Es posible que necesites recursos adicionales para una configuración MaxPodsPerNode más alta o ejecutar más de 30 pods de usuario por nodo.

  • El entorno de ejecución de VM en los componentes de GDC no se considera en esta configuración de recursos mínima. El entorno de ejecución de VM en GDC requiere recursos adicionales según la cantidad de VMs implementadas en el clúster.

Requisitos de almacenamiento adicionales

Google Distributed Cloud no proporciona recursos de almacenamiento. Debes aprovisionar y configurar el almacenamiento requerido en tu sistema.

Para obtener los requisitos de almacenamiento detallados, consulta la descripción general de los prerequisitos de instalación.

Si deseas obtener más información sobre cómo configurar el almacenamiento requerido, consulta Configura el almacenamiento para Google Distributed Cloud.

Requisitos previos de la máquina de nodo

Las máquinas de nodo tienen los siguientes requisitos previos:

  • Debe cumplir con los requisitos mínimos de hardware.
  • El sistema operativo es una de las distribuciones de Linux compatibles. Para obtener más información, incluidos los requisitos de kernel, consulta Selecciona tu sistema operativo.
  • Acceso a Internet.
  • Conectividad de capa 3 a todas las demás máquinas de nodo.
  • Acceso a la VIP del plano de control.
  • Acceso a los puertos requeridos. Para conocer los requisitos específicos de puertos para los nodos del plano de control, los nodos trabajadores y los nodos del balanceador de cargas, consulta Uso del puerto en la página Requisitos de red.
  • Servidores de nombres DNS configurados correctamente.
  • No hay nombres de host duplicados.
  • Uno de los siguientes servicios NTP está habilitado y funciona:
    • chrony
    • ntp
    • ntpdate
    • systemd-timesyncd
  • Un administrador de paquetes en funcionamiento, como apt o dnf
  • En Ubuntu, debes inhabilitar el firewall sin complicaciones (UFW). Ejecuta systemctl stop ufw para inhabilitar UFW.

  • Se debe cargar uno de los módulos de kernel de red siguientes:

    • ip_tables (esto es diferente del paquete de Debian de frontend iptables, que no es necesario)
    • nf_tables

    Para cargar un módulo, ejecuta el siguiente comando:

    modprobe MODULE_NAME
    
  • La creación de clústeres solo verifica el espacio libre requerido para los componentes del sistema de Google Distributed Cloud. Este cambio te da más control sobre el espacio que asignas para las cargas de trabajo de la aplicación. Siempre que instales Google Distributed Cloud, asegúrate de que los sistemas de archivos que respaldan los siguientes directorios tengan la capacidad requerida y cumplan los siguientes requisitos:

    • /: 17 GiB (18,253,611,008 bytes).
    • /var/lib/containerd:
      • 30 GiB (32,212,254,720 bytes) para los nodos del plano de control.
      • 10 GiB (10,485,760 bytes) para nodos trabajadores.
    • /var/lib/kubelet: 500 MiB (524,288,000 bytes).
    • /var/lib/etcd: 20 GiB (21,474,836,480 bytes, aplicable solo a los nodos del plano de control).
    • /var/lib/etcd-events: 5 GiB (5,368,709,120 bytes, aplicable solo a los nodos del plano de control)

    Sin importar la versión del clúster, las listas de directorios anteriores pueden estar en la misma partición o en particiones diferentes. Si están en la misma partición subyacente, el requisito de espacio es la suma del espacio requerido para cada directorio individual en esa partición. Para todas las versiones de actualización, el proceso de creación de clústeres crea los directorios, si es necesario.

  • Los directorios /var/lib/etcd y /etc/kubernetes no existen o están vacíos.

  • Para las máquinas que ejecutan RHEL 9.2 o Ubuntu 22.04, los límites inotify del kernel de Linux para la cantidad máxima de instancias de usuario y observaciones de usuarios deben ser mayores o iguales que los siguientes:

    • fs.inotify.max_user_instances: 8192
    • fs.inotify.max_user_watches: 524288

    Para obtener más información, consulta la documentación de configuración de RHEL o Ubuntu.

Además de los requisitos previos para instalar y ejecutar Google Distributed Cloud, se espera que los clientes satisfagan los estándares relevantes que rigen su segmento de la industria o el negocio, como los requisitos de PCI DSS para empresas que procesan tarjetas de crédito, o las guías de implementación técnica (STIG) para empresas en la industria de la defensa.

Requisitos previos de las máquinas del balanceador de cargas

Cuando tu implementación no tiene un grupo de nodos de balanceador de cargas especializado, puedes hacer que los nodos trabajadores o los nodos del plano de control compilen un grupo de nodos del balanceador de cargas. En ese caso, tienen requisitos previos adicionales, como los siguientes:

  • Las máquinas están en la misma subred de capa 2.
  • Todos los VIP están en la subred de nodos del balanceador de cargas y se pueden enrutar desde la puerta de enlace de la subred.
  • La puerta de enlace de la subred del balanceador de cargas debe detectar los ARP injustificados para reenviar paquetes al balanceador de cargas principal.

¿Qué sigue?