GKE On-Prem nécessite les éléments suivants :
- Un environnement VMware vSphere 6.5, qui inclut vSphere 6.5, vCenter 6.5 et vSphere ESXI 6.5.
- Un équilibreur de charge réseau de couche 4. Par défaut, GKE On-Prem s'intègre à F5 BIG-IP en version 12.x ou 13.x. Vous pouvez également choisir d'activer l'équilibrage de charge manuel et d'utiliser votre propre équilibreur de charge L4.
Avant de commencer, prenez le temps de lire la présentation de GKE On-Prem.
Configuration matérielle requise
GKE On-Prem vous offre le choix parmi un large éventail d'options matérielles. Pour en savoir plus sur les exigences matérielles héritées de vSphere, consultez la page des spécifications matérielles pour VMware/vSphere 6.5.
Google collabore avec plusieurs partenaires OEM afin de fournir des solutions matérielles validées. Choisissez les options proposées par ces partenaires pour bénéficier de solutions de travail connues et de l'assistance collaborative, dans le cadre de laquelle Google et ses partenaires travaillant ensemble pour résoudre les problèmes d'installation.
Nos partenaires OEM incluent actuellement les entreprises suivantes. Cette liste est mise à jour à mesure que de nouvelles plates-formes et de nouveaux partenaires rejoignent la gamme de solutions Anthos :
- Cisco
- Dell
- HPE
- Intel
- Lenovo
Exigences concernant vSphere
Vous devez installer GKE On-Prem dans un environnement VMware vSphere 6.5. Pour en savoir plus sur l'installation de vSphere, consultez la page Overview of the vSphere Installation and Setup Process dans la documentation de VMware.
vSphere 6.5 comprend les composants suivants :
Suivez les instructions ci-dessous pour savoir comment configurer une installation vSphere existante afin de l'utiliser avec GKE On-Prem.
Exigences d'édition de licence et de version
Actuellement, GKE On-Prem nécessite VMware vSphere 6.5. Plus précisément, vous avez besoin des produits VMware sous licence suivants :
- VMware ESXI 6.5, avec une édition de licence Enterprise Plus, installé sur chacun des hôtes de votre centre de données.
- VMware vCenter 6.5, avec une édition de licence standard, installé sur un hôte de votre centre de données.
Pour plus d'informations, consultez les ressources VMware suivantes :
Droits de compte d'utilisateur vCenter
Le compte utilisateur vSphere que vous utilisez pour installer les clusters GKE On-Prem doit disposer de droits suffisants. Le rôle Administrateur de vCenter fournit à ses utilisateurs un accès complet à tous les objets vCenter.
Vous pouvez également choisir de créer un rôle personnalisé doté de l'ensemble minimal de droits requis, détaillé dans le tableau ci-dessous.
Pour en savoir plus sur la gestion des autorisations, consultez la page Managing Permissions for vCenter Components.
Machines virtuelles créées lors de l'installation
Lors d'une nouvelle installation, GKE On-Prem crée plusieurs machines virtuelles (VM ou "nœuds") dans vSphere. Le tableau suivant décrit les spécifications de ces VM et leur rôle.
En outre, GKE On-Prem crée un disque persistant de 100 Go afin de stocker les données du cluster d'administrateur.
Cluster d'administrateur
Nom | Préfixe système | Champ de configuration | Spécifications | Objectif |
---|---|---|---|---|
Plan de contrôle du cluster d'administrateur | gke-admin-master |
Non disponible |
|
Exécute le plan de contrôle administrateur dans le cluster d'administrateur. |
VM de modules complémentaires | gke-admin-node |
Non disponible |
Deux VM s'exécutant avec les spécifications suivantes :
|
Exécutez les modules complémentaires du plan de contrôle administrateur dans le cluster d'administrateur. |
Plan de contrôle du cluster d'utilisateur | [USER_CLUSTER_NAME]-user-N |
usercluster.masternode |
|
Chaque cluster d'utilisateur possède son propre plan de contrôle. Les VM de plan de contrôle utilisateur s'exécutent dans le cluster d'administrateur. Vous pouvez choisir de créer un ou trois plans de contrôle utilisateur. Si vous choisissez de créer trois plans de contrôle utilisateur, GKE On-Prem crée trois VM (une pour chaque plan de contrôle) avec ces spécifications. |
Clusters d'utilisateur
Nom | Préfixe système | Champ de configuration | Spécifications | Usage |
---|---|---|---|---|
Nœuds de calcul du cluster utilisateur | [USER_CLUSTER_NAME]-user |
usercluster.workernode |
Il s'agit des valeurs par défaut pour les nœuds de calcul de cluster utilisateur :
|
Un "nœud" de cluster utilisateur (également appelé "machine") est une machine virtuelle où s'exécutent les charges de travail. Lorsque vous créez un cluster utilisateur, vous décidez du nombre de nœuds qu'il doit exécuter. La configuration requise pour chaque nœud dépend des charges de travail que vous exécutez. Pour en savoir plus sur le nombre maximal de clusters et de nœuds que vous pouvez créer, consultez la page Quotas et limites. Vous pouvez ajouter des VM à un cluster d'utilisateur existant ou les en supprimer. Consultez la page Redimensionner un cluster. |
PersistentVolumeClaims dans les clusters d'administrateur et d'utilisateur
Votre datastore vSphere doit disposer d'un espace suffisant pour répondre aux exigences des PersistentVolumeClaims (PVCs) créés par Prometheus et la suite Google Cloud Operations dans les clusters d'administrateur et d'utilisateur. Par exemple, Prometheus a besoin d'un espace de stockage suffisant pour enregistrer quelques jours de métriques, et la suite Google Cloud Operations a besoin d'espace de stockage pour mettre en mémoire tampon les journaux en cas de panne du réseau.
Chaque cluster possède les PVC suivantes:
- Statefulset Prometheus local : 250 Gio * 2 instances dupliquées = 500 Gio
- Statefulset Prometheus Stackdriver : 250 Gio * 1 instance dupliquée = 250 Gio
- Statefulset de l'agrégateur de journaux : 100 Gio * 2 instances dupliquées = 200 Gio
Protocole NTP
Toutes les VM de votre environnement vSphere doivent utiliser le même serveur NTP (Network Time Protocol).
Si votre poste de travail d'administrateur et vos nœuds de cluster utilisent des adresses IP statiques, vous devez spécifier l'adresse IP d'un serveur NTP dans le champ tod
de votre fichier hostconfig
.
Si votre poste de travail d'administrateur et vos nœuds de cluster obtiennent leurs adresses IP auprès d'un serveur DHCP, vous pouvez configurer ce serveur de sorte qu'il fournisse l'adresse d'un serveur NTP. Si DHCP ne spécifie pas de serveur NTP, GKE On-Prem utilise ntp.ubuntu.com
par défaut.
Exigences relatives à l'équilibreur de charge
GKE On-Prem propose deux modes d'équilibrage de charge : intégré et manuel. Le mode intégré est compatible avec F5 BIG-IP. Le mode manuel est compatible avec les équilibreurs de charge suivants :
- Citrix
- Seesaw
Quel que soit l'équilibreur de charge que vous choisissez, votre environnement doit répondre aux exigences suivantes en matière de mise en réseau.
Réserver des adresses IP virtuelles pour l'équilibrage de charge
Vous devez réserver plusieurs adresses IP virtuelles que vous comptez utiliser pour l'équilibrage de charge. Réservez une adresse IP virtuelle pour chacun des objectifs suivants :
Composant | Description |
---|---|
Plan de contrôle d'administrateur | Accède au serveur d'API Kubernetes du cluster. Le fichier kubeconfig du cluster d'administrateur fait référence à cette adresse IP virtuelle dans son champ |
Modules complémentaires du plan de contrôle d'administrateur | Gère la communication entre les VM des modules du plan de contrôle d'administrateur. |
Entrée du plan de contrôle d'administrateur | Permet d'interagir avec les services exécutés dans le cluster d'administrateur. Istio gère l'entrée dans le cluster et les Services doivent être explicitement configurés pour un accès externe. |
Une adresse IP virtuelle pour chaque plan de contrôle du cluster d'utilisateur | Permet d'accéder aux serveurs d'API Kubernetes de chaque cluster d'utilisateur. Le fichier kubeconfig de chaque cluster d'utilisateur fait référence à l'une de ces adresses IP virtuelles. |
Une adresse IP virtuelle pour chaque contrôleur d'entrée de cluster d'utilisateur | Utilisée pour interagir avec les services exécutés dans les clusters d'utilisateur. |
Une adresse IP virtuelle pour les mises à niveau de cluster | Utilisée par GKE On-Prem lors des mises à niveau de cluster. |
Réserver des blocs CIDR
Vous devez réserver des blocs CIDR pour les plages suivantes :
Plage |
Description |
---|---|
Plage d'adresses IP des pods |
|
Plage d'adresses IP des services |
|
Ouvrir votre pare-feu pour les événements de cycle de vie du cluster
Assurez-vous que votre pare-feu autorise le trafic suivant. Sauf indication contraire, le protocole par défaut est TCP :
De |
À |
Événements liés au cycle de vie |
---|---|---|
Plan de contrôle d'administrateur, plans de contrôle d'utilisateur, nœuds de cluster utilisateur |
Accès sortant vers *.googleapis.com, qui renvoie les plages d'adresses IP de netblock Google (port 443) pour accéder à Google Cloud Storage et à Container Registry. |
|
VM d'administration et de plan de contrôle d'utilisateur |
Adresse IP vCenter (port 443) |
Ajouter des machines |
VM de poste de travail d'administrateur |
Adresse IP vCenter (port 443) |
Amorçage de cluster |
VM de poste de travail d'administrateur |
SSH (port 22) vers les plans de contrôle d'administrateur et d'utilisateur |
|
Exigences et contraintes relatives à la connectivité des services et des pods
Tenez compte des domaines de connectivité suivants lors de la préparation de GKE On-Prem :
Category |
Exigence/contrainte |
---|---|
Routage |
Vous devez vous assurer que les VM vSphere peuvent assurer le routage les unes vers les autres. |
IP ranges |
Pour le cluster d'administrateur, et pour chaque cluster d'utilisateur que vous souhaitez créer, vous devez réserver deux blocs IPv4 CIDR distincts : un pour les adresses IP de pod et un autre pour les adresses IP de service. |
SSL |
Non disponible |
Encapsulation |
Le fournisseur CNI à utiliser est Calico. |
Exigences et contraintes relatives aux clusters
Tenez compte des éléments suivants lorsque vous planifiez vos clusters On-Prem GKE :
Catégorie |
Exigence/contrainte |
---|---|
Routage |
|
Visibilité des services |
Pour chaque cluster d'utilisateur utilisant l'entrée en mode HTTPS, vous ajoutez des entrées DNS qui pointent vers l'adresse IP virtuelle du contrôleur d'entrée du cluster. |
Exigences F5 BIG-IP
F5 BIG-IP s'intègre à GKE On-Prem, ce qui en fait le choix recommandé. Découvrez comment installer F5 BIG-IP.
Pour configurer l'équilibreur de charge F5 BIG-IP, procédez comme suit :
Autorisations pour compte utilisateur F5 BIG-IP
GKE On-Prem nécessite un compte utilisateur F5 BIG-IP doté du rôle Administrateur. Consultez la documentation de F5 sur les Rôles utilisateur.
Lors de l'installation, vous devez fournir à GKE On-Prem vos identifiants F5 BIG-IP. Le compte que vous renseignez doit posséder le rôle Administrateur, comme stipulé dans le Guide de l'utilisateur des connecteurs de conteneurs F5, selon lequel "le contrôleur BIG-IP requiert des autorisations d'administrateur pour être entièrement fonctionnel".Partitions F5 BIG-IP
Vous devez créer à l'avance une partition d'administration F5 BIG-IP pour chaque cluster que vous avez l'intention de créer. Dans un premier temps, vous devez créer au moins deux partitions : une pour le cluster d'administrateur et une autre pour un cluster d'utilisateur. Consultez la documentation de F5 pour découvrir comment configurer des partitions d'administration pour contrôler l'accès utilisateur.
N'utilisez pas de partition d'administration pour un autre usage que le cluster associé.