GKE On-Prem requiere lo siguiente:
- Un entorno de VMware vSphere 6.5, que incluye vSphere 6.5, vCenter 6.5 y vSphere ESXI 6.5.
- Un balanceador de cargas de red de capa 4. De forma predeterminada, GKE On-Prem se integra en las versiones 12.x o 13.x de F5 BIG-IP. También puedes optar por habilitar el balanceo de cargas manual y usar tu propio balanceador de cargas L4.
Antes de comenzar, debes leer la descripción general de GKE On-Prem.
Requisitos de hardware
GKE On-Prem te permite elegir entre una amplia gama de opciones de hardware. Para obtener más información sobre los requisitos de hardware heredados de vSphere, consulta la especificación de hardware de VMware/vSphere 6.5.
Google está trabajando con varios socios del OEM para proporcionar soluciones de hardware validadas. Elige opciones de estos socios para obtener soluciones de trabajo conocidas y el beneficio de la asistencia colaborativa (en la que Google y nuestros socios trabajan juntos para resolver problemas de instalación).
Actualmente, nuestros socios OEM incluyen lo siguiente. Esta lista se actualizará a medida que se unan plataformas y socios nuevos a la familia de soluciones de Anthos:
- Cisco
- Dell
- HPE
- Intel
- Lenovo
Requisitos de vSphere
Instalas GKE On-Prem en un entorno de VMware vSphere 6.5. Para obtener más información sobre la instalación de vSphere, consulta la Descripción general del proceso de instalación y configuración de vSphere en la documentación de VMware.
vSphere 6.5 incluye los siguientes componentes:
Sigue las secciones que aparecen a continuación a fin de aprender a configurar una instalación existente de vSphere para usarla con GKE On-Prem.
Requisitos de versión y edición de licencias
Actualmente, GKE On-Prem requiere VMware vSphere 6.5. En particular, necesitas los siguientes productos de VMware con licencia:
- VMware ESXI 6.5, con una edición de licencia de Enterprise Plus, instalado en cada uno de los hosts en tu centro de datos.
- VMware vCenter 6.5, con una edición de licencia Standard, instalada en un host en tu centro de datos.
Para obtener más información, consulta los siguientes recursos de VMware:
- Comparación de las ediciones de VMware vSphere
- VMware vSphere feature comparison (Comparación de funciones de VMware vSphere)
Privilegios de la cuenta de usuario de vCenter
La cuenta de usuario de vSphere que usas para instalar los clústeres de GKE On-Prem debe tener los privilegios necesarios. La función de administrador de vCenter proporciona a sus usuarios acceso completo a todos los objetos de vCenter.
Como alternativa, puedes elegir crear una función personalizada con el conjunto mínimo de privilegios requeridos, que se detallan en la siguiente tabla.
Si quieres obtener más información sobre cómo administrar permisos, consulta Administra permisos para componentes de vCenter.
Máquinas virtuales creadas durante la instalación
Durante una instalación nueva, GKE On-Prem crea varias máquinas virtuales (VM o “nodos”) en vSphere. En la siguiente tabla, se describen las especificaciones de estas VM y su propósito.
Además, GKE On-Prem crea un disco persistente de 100 GB para almacenar los datos del clúster de administrador.
Clúster de administrador
Nombre | Prefijo del sistema | Campo de configuración | Especificaciones | Objetivo |
---|---|---|---|---|
Plano de control del clúster de administrador | gke-admin-master |
No disponible |
|
Ejecutar el plano de control del administrador en el clúster del administrador |
VM de complementos | gke-admin-node |
No disponible |
Dos VM que se ejecutan con las siguientes especificaciones:
|
Ejecutar los complementos del plano de control del administrador en el clúster del administrador. |
Plano de control del clúster de usuario | [USER_CLUSTER_NAME]-user-N |
usercluster.masternode |
|
Cada clúster de usuario tiene su propio plano de control. Las VM del plano de control del usuario se ejecutan en el clúster de administrador. Puedes elegir crear uno o tres planos de control de usuario. Si eliges crear tres planos de control de usuario, GKE On-Prem crea tres VM (una para cada plano de control) con estas especificaciones. |
Clústeres de usuarios
Nombre | Prefijo del sistema | Campo de configuración | Especificaciones | Motivo |
---|---|---|---|---|
Nodos trabajadores del clúster de usuario | [USER_CLUSTER_NAME]-user |
usercluster.workernode |
Estos son los valores predeterminados para los nodos trabajadores del clúster de usuario:
|
Un “nodo” de clúster de usuarios (también llamado “máquina”) es una máquina virtual donde se ejecutan las cargas de trabajo. Cuando creas un clúster de usuario, decides cuántos nodos debe ejecutar. La configuración necesaria para cada nodo depende de las cargas de trabajo que ejecutes. Para obtener información sobre la cantidad máxima de clústeres y nodos que puedes crear, consulta Cuotas y límites. Puedes agregar o quitar VM de un clúster de usuario existente. Consulta Cambia el tamaño de un clúster. |
PersistentVolumeClaims en clústeres de administrador y de usuario
Tu almacén de datos de vSphere debe tener espacio para completar PersistentVolumeClaims (PVC) creados por Prometheus y Google Cloud's operations suite en los clústeres de administrador y usuario. Por ejemplo, Prometheus necesita suficiente almacenamiento para unos pocos días de métricas, y Google Cloud's operations suite necesita almacenamiento para almacenar en búfer los registros durante una interrupción de la red.
Cada clúster tiene los siguientes PVC:
- statefulset de Prometheus local: 250 GiB * 2 réplicas = 500 GiB
- statefulset de Prometheus de Stackdriver: 250 GiB * 1 réplica = 250 GiB
- statefulset de agregador de registros: 100 GiB * 2 réplicas = 200 GiB
Protocolo NTP
Todas las VM en tu entorno de vSphere deben usar el mismo servidor de protocolo NTP.
Si tu estación de trabajo de administrador y los nodos del clúster usan direcciones IP estáticas, debes especificar la dirección IP de un servidor NTP en el tod
campo de tu archivo hostconfig
.
Si tu estación de trabajo de administrador y los nodos del clúster obtienen sus direcciones IP desde un servidor DHCP, puedes configurar el servidor DHCP para proporcionar la dirección de un servidor NTP. Si DHCP no especifica un servidor NTP, GKE On-Prem usa ntp.ubuntu.com
de forma predeterminada.
Requisitos del balanceador de cargas
GKE On-Prem tiene dos modos de balanceo de cargas: integrado y manual. El modo integrado es compatible con F5 BIG-IP. El modo manual es compatible con los siguientes balanceadores de cargas:
- Citrix
- Seesaw
Independientemente del balanceador de cargas que elija, su entorno debe cumplir los siguientes requisitos de red.
Deja las VIP de lado para el balanceo de cargas
Debes dejar de lado varias VIP que deseas usar para el balanceo de cargas. Reserva una VIP para cada uno de los siguientes fines:
Componente | Descripción |
---|---|
Plano de control del administrador | Accede al servidor de la API de Kubernetes del clúster de administrador. El archivo kubeconfig del clúster del administrador hace referencia a esta VIP en su campo |
Complementos del plano de control del administrador | Administra la comunicación entre las VM del complemento de plano de control del administrador. |
Entrada del plano de control del administrador | Se usa para interactuar con los Service que se ejecutan dentro del clúster de administrador. Istio administra la entrada en el clúster, y los servicios se deben configurar de forma explícita para el acceso externo. |
Una VIP para cada plano de control de clúster de usuario | Proporciona acceso a los servidores de la API de Kubernetes de cada clúster de usuario. El archivo kubeconfig de cada clúster de usuario hace referencia a una de estas VIP. |
Una VIP para cada controlador de entrada de clúster de usuario | Se usa para interactuar con los Services que se ejecutan en los clústeres de usuarios. |
Una VIP para las actualizaciones de clústeres | La usa GKE On-Prem durante las actualizaciones del clúster. |
Deja de lado los bloques de CIDR
Debes reservar los bloques CIDR para los siguientes rangos:
Rango |
Descripción |
---|---|
Rango de IP del pod |
|
Rango de IP de servicio |
|
Abre tu firewall para ver los eventos del ciclo de vida del clúster
Asegúrate de que tu firewall permita el siguiente tráfico. A menos que se indique lo contrario, el protocolo predeterminado es TCP:
De |
A |
Eventos de ciclo de vida |
---|---|---|
Plano de control de administrador, planos de control de usuarios, nodos de clúster de usuario |
Acceso saliente a *.googleapis.com, que usa los rangos de IP de netblock de Google (puerto 443) para acceder a Google Cloud Storage y Container Registry. |
|
VM del plano de control del administrador y el usuario |
IP de vCenter (puerto 443) |
Agregar máquinas nuevas |
VM de la estación de trabajo de administrador |
IP de vCenter (puerto 443) |
Inicio del clúster |
VM de la estación de trabajo de administrador |
Conexión SSH (puerto 22) a planos de administrador y usuario |
|
Requisitos y restricciones para la conectividad del Service y del Pod
Considera las siguientes áreas de conectividad mientras te preparas para GKE On-Prem:
Category |
Requisito/Restricción |
---|---|
Enrutamiento |
Debe asegurarse de que las VM de vSphere puedan enrutarse entre sí. |
IP ranges |
Para el clúster de administrador y cada clúster de usuario que desees crear, debes separar dos bloques IPv4 de CIDR: uno destinado a las IP de Pod y otro a las IP de Service. |
SSL |
No disponible |
Encapsulamiento |
El proveedor de CNI que se usará es Calico. |
Requisitos y restricciones de los clústeres
Considera las siguientes áreas cuando planifiques tus clústeres de GKE On-Prem:
Categoría |
Requisito/Restricción |
---|---|
Enrutamiento |
|
Visibilidad del servicio |
Para cada clúster de usuario que usa entrada con HTTPS, debes agregar entradas de DNS que apunten a la VIP para el controlador de entrada del clúster. |
Requisitos de BIG-IP de F5
BIG-IP de F5 se integra con GKE On-Prem, por lo que la opción recomendada es Aprende a instalar BIG-IP de F5.
Para configurar el balanceador de cargas de BIG-IP de F5, sigue estas instrucciones:
Permisos de cuenta de usuario de BIG-IP de F5
GKE On-Prem requiere una cuenta de usuario de BIG-IP de F5 con la función de administrador. Consulta la documentación de las funciones de usuario de F5.
Durante la instalación, debes proporcionar tus credenciales de BIG-IP de F5 a GKE On-Prem. La cuenta que proporcionas debe tener la función de administrador según la Guía del usuario del conector de contenedor de F5, que indica que el controlador BIG-IP requiere permisos de administrador para proporcionar la funcionalidad completa.Particiones de BIG-IP de F5
Debes crear una partición administrativa de BIG-IP de F5 para cada clúster que quieras crear con anticipación. En principio, debes crear al menos dos particiones: una para el clúster de administrador y otra para un clúster de usuario. Consulta la documentación Cómo configurar particiones administrativas para controlar el acceso de los usuarios de F5.
No uses una partición administrativa para nada más que su clúster asociado.