Versión 1.0. Esta versión no es totalmente compatible.

Requisitos del sistema

GKE On-Prem requiere lo siguiente:

  • Un entorno de VMware vSphere 6.5, que incluye vSphere 6.5, vCenter 6.5 y vSphere ESXI 6.5.
  • Un balanceador de cargas de red de capa 4. De forma predeterminada, GKE On-Prem se integra en las versiones 12.x o 13.x de F5 BIG-IP. También puedes optar por habilitar el balanceo de cargas manual y usar tu propio balanceador de cargas L4.

Antes de comenzar, debes leer la descripción general de GKE On-Prem.

Requisitos de hardware

GKE On-Prem te permite elegir entre una amplia gama de opciones de hardware. Para obtener información sobre los requisitos de hardware heredados de vSphere, consulta la especificación de hardware de VMware/vSphere 6.5.

Google trabaja con varios socios OEM para proporcionar soluciones de hardware validadas. Elige opciones de estos socios para obtener soluciones de trabajo conocidas y el beneficio de la asistencia colaborativa (es decir, Google y nuestros socios trabajan en conjunto para resolver problemas de instalación).

Nuestros socios OEM incluyen los siguientes. A medida que las plataformas y los socios nuevos se unan a la familia de soluciones de Anthos, se actualizará esta lista:

  • Cisco
  • Dell
  • HPE
  • Intel
  • Lenovo

Requisitos de vSphere

Instalas GKE On-Prem en un entorno de VMware vSphere 6.5. Para obtener más información sobre la instalación de vSphere, consulta la Descripción general del proceso de instalación y configuración de vSphere en la documentación de VMware.

vSphere 6.5 incluye los siguientes componentes:

Sigue las secciones a continuación a fin de obtener información sobre cómo configurar una instalación de vSphere existente para usar con GKE On-Prem.

Requisitos de versión y edición de licencias

Actualmente, GKE On-Prem requiere VMware vSphere 6.5. En particular, necesitas los siguientes productos de VMware con licencia:

  • VMware ESXI 6.5, con una edición de licencia de Enterprise Plus, instalado en cada uno de los hosts en tu centro de datos.
  • VMware vCenter 6.5, con una edición de licencia Standard, instalada en un host en tu centro de datos.

Para obtener más información, consulta los siguientes recursos de VMware:

Privilegios de la cuenta de usuario de vCenter

La cuenta de usuario de vSphere que usas para instalar los clústeres de GKE On-Prem debe tener los privilegios necesarios. La función de administrador de vCenter proporciona a sus usuarios acceso completo a todos los objetos de vCenter.

Como alternativa, puedes optar por crear una función personalizada con el conjunto mínimo de privilegios necesarios, que se detalla en la tabla a continuación.

Si quieres obtener más información sobre cómo administrar permisos, consulta Administra permisos para componentes de vCenter.

Máquinas virtuales creadas durante la instalación

Durante una instalación nueva, GKE On-Prem crea varias máquinas virtuales (VM o “nodos”) en vSphere. En la siguiente tabla, se describen las especificaciones de estas VM y su propósito.

Además, GKE On-Prem crea un disco persistente de 100 GB para almacenar los datos del clúster de administrador.

Clúster de administrador

Name Prefijo del sistema Campo de configuración Especificaciones Objetivo
Plano de control del clúster de administrador gke-admin-master N/A
  • 4 CPU virtuales
  • 16384 MB de RAM
  • 40 GB de espacio en disco duro

Ejecutar el plano de control del administrador en el clúster del administrador

VM de complementos gke-admin-node N/A

Dos VM que se ejecutan con las siguientes especificaciones:

  • 4 CPU virtuales
  • 16384 MB de RAM
  • 40 GB de espacio en disco duro

Ejecutar los complementos del plano de control del administrador en el clúster del administrador.

Plano de control del clúster de usuario [USER_CLUSTER_NAME]-user-N usercluster.masternode
  • 4 CPU virtuales
  • 8192 MB de RAM
  • 40 GB de espacio en disco duro

Cada clúster de usuario tiene su propio plano de control. Las VM del plano de control del usuario se ejecutan en el clúster de administrador. Puedes elegir crear uno o tres planos de control de usuario. Si eliges crear tres planos de control de usuario, GKE On-Prem creará tres VM, una para cada plano de control, con estas especificaciones.

Clústeres de usuarios

Name Prefijo del sistema Campo de configuración Especificaciones Motivo
Nodos trabajadores del clúster de usuario [USER_CLUSTER_NAME]-user usercluster.workernode

Estos son los valores predeterminados para los nodos trabajadores del clúster de usuario:

  • 4 CPU virtuales
  • 8192 MB de RAM
  • 40 GB de espacio en disco duro

Un “nodo” de clúster de usuarios (también llamado “máquina”) es una máquina virtual donde se ejecutan las cargas de trabajo. Cuando creas un clúster de usuario, decides cuántos nodos debe ejecutar. La configuración necesaria para cada nodo depende de las cargas de trabajo que ejecutes.

Para obtener información sobre la cantidad máxima de clústeres y nodos que puedes crear, consulta Cuotas y límites.

Puedes agregar o quitar VM de un clúster de usuarios existente. Consulta Cambia el tamaño de un clúster.

PersistentVolumeClaims en clústeres de administrador y de usuario

Tu almacén de datos de vSphere debe tener espacio para completar PersistentVolumeClaims (PVC) creados por Prometheus y Google Cloud's operations suite en los clústeres de administrador y usuario. Por ejemplo, Prometheus necesita suficiente almacenamiento para unos pocos días de métricas, y Google Cloud's operations suite necesita almacenamiento para almacenar en búfer los registros durante una interrupción de la red.

Cada clúster tiene los siguientes PVC:

  • statefulset de Prometheus local: 250 GiB * 2 réplicas = 500 GiB
  • statefulset de Prometheus de Stackdriver: 250 GiB * 1 réplica = 250 GiB
  • statefulset de agregador de registros: 100 GiB * 2 réplicas = 200 GiB

Protocolo NTP

Todas las VM en tu entorno de vSphere deben usar el mismo servidor de protocolo NTP.

Si tu estación de trabajo de administrador y los nodos del clúster usan direcciones IP estáticas, debes especificar la dirección IP de un servidor NTP en el tod campo de tu archivo hostconfig.

Si tu estación de trabajo de administrador y los nodos del clúster obtienen sus direcciones IP desde un servidor DHCP, puedes configurar el servidor DHCP para proporcionar la dirección de un servidor NTP. Si DHCP no especifica un servidor NTP, GKE On-Prem usa ntp.ubuntu.com de forma predeterminada.

Requisitos del balanceador de cargas

GKE On-Prem tiene dos modos de balanceo de cargas: Integrados y manuales. El modo integrado admite F5 BIG-IP. El modo manual admite los siguientes balanceadores de cargas:

  • Citrix
  • Seesaw

Independientemente del balanceador de cargas que elija, su entorno debe cumplir los siguientes requisitos de red.

Deja las VIP de lado para el balanceo de cargas

Debes dejar de lado varias VIP que deseas usar para el balanceo de cargas. Reserva una VIP para cada uno de los siguientes fines:

Componente Descripción
Plano de control del administrador

Accede al servidor de la API de Kubernetes del clúster de administrador. El archivo kubeconfig del clúster del administrador hace referencia a esta VIP en su campo server.

Complementos del plano de control del administrador

Administra la comunicación entre las VM de complementos del plano de control del administrador.

Entrada del plano de control del administrador

Se usa para interactuar con los servicios que se ejecutan dentro del clúster del administrador. Istio administra la entrada en el clúster y los servicios se deben configurar de forma explícita para acceso externo.

Una VIP para cada plano de control de clúster de usuario

Proporciona acceso a los servidores de la API de Kubernetes de cada clúster de usuario. El archivo kubeconfig de cada clúster de usuario hace referencia a una de estas VIP.

Una VIP para cada controlador de entrada de clúster de usuario

Se usa para interactuar con los Services que se ejecutan en los clústeres de usuarios.

Una VIP para las actualizaciones de clústeres

La usa GKE On-Prem durante las actualizaciones del clúster.

Deja de lado los bloques de CIDR

Debes separar los bloques CIDR de los siguientes rangos:

Rango

Descripción

Rango de IP del pod

  • Bloque CIDR IPv4 (/C) separado para las IP de Pod de Kubernetes. Desde este rango, se asignan rangos de /24 más pequeños por nodo. Si necesitas un clúster de nodos N, asegúrate de que /C sea lo suficientemente grande como para admitir bloques N de /24.
  • Debes separar un rango de IP de pod para tu clúster de administrador y un rango de IP de pod para cada clúster de usuario que desees crear.
  • Por ejemplo, si el clúster puede aumentar hasta 10 nodos, /C debe ser un bloque /20, ya que admite hasta 16 rangos /24 en él.

Rango de IP del servicio

  • El bloque CIDR IPv4 (/S) separado para las IP de servicio de Kubernetes. El tamaño del bloque determina la cantidad de servicios. Se necesita una IP de servicio para el controlador de Ingress y 10 o más IP para los Services de Kubernetes, como el DNS del clúster, etcétera.
  • Debes separar un rango de IP de servicio para el clúster de administrador y un rango de IP de servicio para cada clúster de usuario que desees crear. No debes usar el mismo rango de IP de servicio para el clúster de administrador y los clústeres de usuario.
  • Usa un bloque /24 (256 IP) o más grande. Los rangos más pequeños que /24 pueden limitar la cantidad de servicios que se pueden alojar en un clúster.

Abre tu firewall para ver los eventos del ciclo de vida del clúster

Asegúrate de que tu firewall permita el siguiente tráfico. A menos que se indique lo contrario, el protocolo predeterminado es TCP:

De

A

Eventos de ciclo de vida

Plano de control de administrador, planos de control de usuarios, nodos de clúster de usuario

Acceso saliente a *.googleapis.com, que usa los rangos de IP de netblock de Google (puerto 443) para acceder a Google Cloud Storage y Container Registry.

  • Inicio del clúster
  • Agregar o reparar máquinas de clúster

VM del plano de control y de usuario

IP de vCenter (puerto 443)

Agregar máquinas nuevas

VM de la estación de trabajo de administrador

IP de vCenter (puerto 443)

Inicio del clúster

VM de la estación de trabajo de administrador

Conexión SSH (puerto 22) a planos de administrador y usuario

  • Inicio del clúster
  • Actualizaciones del plano de control

Requisitos y restricciones para la conectividad del Service y del Pod

Considera las siguientes áreas de conectividad mientras te preparas para GKE On-Prem:

Category

Requisito/Restricción

Enrutamiento

Debes asegurarte de que las VM de vSphere puedan enrutarse entre sí.

IP ranges

Para el clúster de administrador y cada clúster de usuario que desees crear, debes separar dos bloques IPv4 de CIDR: uno destinado a las IP de Pod y otro a las IP de Service.

SSL

N/A

Encapsulamiento

El proveedor de CNI que se usará es Calico.

Requisitos y restricciones para los clústeres

Considera las siguientes áreas a la hora de planificar tus clústeres de GKE On-Prem:

Category

Requisito/Restricción

Enrutamiento

  • Solo BIG-IP de F5: Acceso a la API al plano de control BIG-IP de F5 que admite el uso de IP virtuales para balancear cargas en VM de vSphere.
  • Debes configurar la red para enrutar las IP virtuales que se configurarán en el balanceador de cargas.
  • Debes configurar el balanceador de cargas para poder enrutar a los nodos del clúster. Para BIG-IP de F5, los servicios de NodePort en los clústeres se exponen como VIP de L4. Para otros balanceadores de cargas, puedes configurar manualmente los servicios de NodePort para que se expongan como VIP de L4.

Visibilidad del servicio

Para cada clúster de usuario que usa entrada con HTTPS, debes agregar entradas de DNS que apunten a la VIP para el controlador de entrada del clúster.

Requisitos de BIG-IP de F5

BIG-IP de F5 se integra con GKE On-Prem, por lo que la opción recomendada es Aprende a instalar BIG-IP de F5.

Para configurar el balanceador de cargas de BIG-IP de F5, sigue estas instrucciones:

Permisos de cuenta de usuario de BIG-IP de F5

GKE On-Prem requiere una cuenta de usuario de BIG-IP de F5 con la función de administrador. Consulta la documentación de las funciones de usuario de F5.

Durante la instalación, debes proporcionar tus credenciales de BIG-IP de F5 a GKE On-Prem. La cuenta que proporcionas debe tener la función de administrador según la Guía del usuario del conector de contenedor de F5, que indica que el controlador BIG-IP requiere permisos de administrador para proporcionar la funcionalidad completa.

Particiones de BIG-IP de F5

Debes crear una partición administrativa de BIG-IP de F5 para cada clúster que quieras crear con anticipación. En principio, debes crear al menos dos particiones: una para el clúster de administrador y otra para un clúster de usuario. Consulta la documentación Cómo configurar particiones administrativas para controlar el acceso de los usuarios de F5.

No uses una partición administrativa para otro elemento que no sea su clúster asociado.