Requisitos previos de la máquina del nodo del clúster

Google Distributed Cloud admite una amplia variedad de sistemas que se ejecutan en el hardware que admiten las distribuciones de sistemas operativos de destino. Una configuración de Google Distributed Cloud se puede ejecutar en un hardware mínimo o en varias máquinas para proporcionar flexibilidad, disponibilidad y rendimiento.

Sin importar tu configuración de Google Distributed Cloud, tus nodos y clústeres deben tener suficientes recursos de CPU, RAM y almacenamiento para satisfacer las necesidades de los clústeres y las cargas de trabajo que ejecutas.

Cuando instalas Google Distributed Cloud, puedes crear diferentes tipos de clústeres:

  • Un clúster de usuario que ejecuta cargas de trabajo.
  • Un clúster de administrador crea y controla clústeres de usuario para ejecutar cargas de trabajo.
  • Un clúster independiente es un clúster único que puede administrar y ejecutar cargas de trabajo, pero un clúster independiente no puede crear ni administrar clústeres de usuarios.
  • Un clúster híbrido puede administrar y ejecutar cargas de trabajo, y un clúster híbrido también puede crear y administrar clústeres de usuario adicionales.

Además del tipo de clúster, puedes elegir entre los siguientes perfiles de instalación en términos de requisitos de recursos:

  • Predeterminado: El perfil predeterminado tiene requisitos de recursos del sistema estándar y puedes usarlo para todos los tipos de clústeres.

  • Edge: El perfil de Edge redujo significativamente los requisitos de los recursos del sistema. Se recomienda el uso de este perfil para dispositivos perimetrales con recursos limitados. Solo puedes usar el perfil perimetral para clústeres independientes.

Requisitos de recursos para todos los tipos de clústeres que usan el perfil predeterminado

En la siguiente tabla, se describen los requisitos de hardware mínimos y recomendados que Google Distributed Cloud necesita para operar y administrar clústeres de administrador, híbridos, de usuario e independientes con el perfil predeterminado:

Recurso Mínimo Recomendado
CPUs / CPU virtuales* 4 núcleos 8 núcleos
RAM 16 GiB 32 GiB
Almacenamiento 128 GiB 256 GiB

* Google Distributed Cloud solo admite CPU x86-64 y CPU virtuales en el nivel de microarquitectura de CPU v3 (x86-64-v3) y superior.

Requisitos de recursos para clústeres independientes que usan el perfil perimetral

En la siguiente tabla, se describen los requisitos de hardware mínimos y recomendados que Google Distributed Cloud necesita para operar y administrar clústeres independientes con el perfil perimetral:

Recurso Mínimo Recomendado
CPUs / CPU virtuales* 2 núcleos 4 núcleos
RAM Ubuntu: 4 GiB

RHEL: 6 GiB

Ubuntu: 8 GiB

RHEL: 12 GiB

Almacenamiento 128 GiB 256 GiB

* Google Distributed Cloud solo admite CPU x86-64 y CPU virtuales en el nivel de microarquitectura de CPU v3 (x86-64-v3) y superior.

Para configurar clústeres independientes con el perfil de Edge, sigue estas prácticas recomendadas:

  • Ejecuta bmctl en una estación de trabajo independiente. Si debes ejecutar bmctl en el nodo del clúster de destino, necesitas 2 GiB de memoria para cumplir con los requisitos mínimos. Por ejemplo, necesitas 6 GiB para Ubuntu y 8 GiB para RHEL.

  • Establece MaxPodsPerNode en 110. El clúster ejecuta un máximo de 30 pods de usuario por nodo en promedio. Es posible que necesites recursos adicionales para una configuración MaxPodsPerNode más alta o ejecutar más de 30 pods de usuario por nodo.

  • El entorno de ejecución de VM en los componentes de GDC no se considera en esta configuración mínima de recursos. El entorno de ejecución de VM en GDC requiere recursos adicionales según la cantidad de VM implementadas en el clúster.

Requisitos de almacenamiento adicionales

Google Distributed Cloud no proporciona ningún recurso de almacenamiento. Debes aprovisionar y configurar el almacenamiento requerido en tu sistema.

Para obtener los requisitos de almacenamiento detallados, consulta la descripción general de los prerequisitos de instalación.

Si quieres obtener más información para configurar el almacenamiento requerido, consulta Configura el almacenamiento para Google Distributed Cloud.

Requisitos previos de la máquina de nodo

Las máquinas de nodo tienen los siguientes requisitos previos:

  • Debe cumplir con los requisitos mínimos de hardware.
  • El sistema operativo es una de las distribuciones de Linux compatibles. Para obtener más información, incluidos los requisitos de kernel, consulta Cómo seleccionar tu sistema operativo.
  • Acceso a Internet.
  • Conectividad de capa 3 a todas las demás máquinas de nodo.
  • Acceso a la VIP del plano de control.
  • Acceso a los puertos requeridos. Si deseas conocer los requisitos de puerto específicos para los nodos del plano de control, los nodos trabajadores y los nodos del balanceador de cargas, consulta Uso de puertos en la página Requisitos de red.
  • Los servidores de nombres de DNS están configurados correctamente.
  • No hay nombres de host duplicados.
  • Uno de los siguientes servicios NTP está habilitado y funciona:
    • chrony
    • ntp
    • ntpdate
    • systemd-timesyncd
  • Un administrador de paquetes que funcione, como apt o dnf
  • En Ubuntu, debes inhabilitar el firewall sin complicaciones (UFW). Ejecuta systemctl stop ufw para inhabilitar UFW.

  • Se debe cargar uno de los siguientes módulos de kernel de red:

    • ip_tables (esto es diferente del paquete Debian de frontend iptables, que no es obligatorio)
    • nf_tables

    Para cargar un módulo, ejecuta el siguiente comando:

    modprobe MODULE_NAME
    
  • La creación de clústeres solo verifica el espacio libre requerido para los componentes del sistema de Google Distributed Cloud. Este cambio te da más control sobre el espacio que asignas para las cargas de trabajo de la aplicación. Siempre que instales Google Distributed Cloud, asegúrate de que los sistemas de archivos que respaldan los siguientes directorios tengan la capacidad requerida y cumplan con los siguientes requisitos:

    • /: 17 GiB (18,253,611,008 bytes).
    • /var/lib/containerd:
      • 30 GiB (32,212,254,720 bytes) para los nodos del plano de control.
      • 10 GiB (10,485,760 bytes) para nodos trabajadores.
    • /var/lib/kubelet: 500 MiB (524,288,000 bytes).
    • /var/lib/etcd: 20 GiB (21,474,836,480 bytes, aplicable solo a los nodos del plano de control).
    • /var/lib/etcd-events: 5 GiB (5,368,709,120 bytes, aplicable solo a los nodos del plano de control)

    Sin importar la versión del clúster, las listas de directorios anteriores pueden estar en la misma partición o en particiones diferentes. Si están en la misma partición subyacente, el requisito de espacio es la suma del espacio requerido para cada directorio individual en esa partición. Para todas las versiones de actualización, el proceso de creación de clústeres crea los directorios, si es necesario.

  • Los directorios /var/lib/etcd y /etc/kubernetes no existen o están vacíos.

  • En el caso de las máquinas que ejecutan RHEL 9.2 o Ubuntu 22.04, los límites inotify del kernel de Linux para la cantidad máxima de instancias de usuario y relojes de usuario deben ser mayores o iguales que los siguientes valores:

    • fs.inotify.max_user_instances: 8192
    • fs.inotify.max_user_watches: 524288

    Para obtener más información, consulta la documentación de configuración de RHEL o Ubuntu.

Además de los requisitos previos para instalar y ejecutar Google Distributed Cloud, se espera que los clientes cumplan con los estándares relevantes que rigen su industria o segmento empresarial, como los requisitos de PCI DSS para empresas que procesan tarjetas de crédito o las guías de implementación técnica de seguridad (STIG) para empresas en la industria de la defensa.

Requisitos previos de las máquinas del balanceador de cargas

Cuando tu implementación no tiene un grupo de nodos de balanceador de cargas especializado, puedes hacer que los nodos trabajadores o los nodos del plano de control compilen un grupo de nodos del balanceador de cargas. En ese caso, tienen requisitos previos adicionales:

  • Las máquinas están en la misma subred de capa 2.
  • Todas las VIP están en la subred de nodos del balanceador de cargas y se pueden enrutar desde la puerta de enlace de la subred.
  • La puerta de enlace de la subred del balanceador de cargas debe escuchar los ARP injustificados para reenviar paquetes al balanceador de cargas principal.

¿Qué sigue?