GKE sur Bare Metal est compatible avec une grande variété de systèmes s'exécutant sur le matériel compatible avec les distributions du système d'exploitation cible. Une configuration GKE sur Bare Metal peut s'exécuter sur un minimum de matériel ou sur plusieurs machines pour offrir flexibilité, disponibilité et performances.
Quelle que soit votre configuration GKE sur Bare Metal, vos nœuds et clusters doivent disposer de suffisamment de ressources de processeur, de RAM et de stockage pour répondre aux besoins des clusters et aux charges de travail que vous exécutez.
Configuration minimale requise et recommandée pour le processeur, la mémoire RAM et le stockage
Lorsque vous installez GKE sur une solution Bare Metal, vous pouvez créer différents types de clusters:
- Un cluster d'utilisateur qui exécute des charges de travail.
- Un cluster d'administrateur crée et contrôle des clusters d'utilisateur pour exécuter des charges de travail.
- Un cluster autonome est un cluster unique qui peut gérer et exécuter des charges de travail, mais qui ne peut pas créer ni gérer de clusters d'utilisateur.
- Un cluster hybride peut gérer et exécuter des charges de travail, et un cluster hybride peut également créer et gérer des clusters d'utilisateur supplémentaires.
En plus du type de cluster, vous pouvez choisir parmi les profils d'installation suivants en termes de besoins en ressources :
Par défaut : le profil par défaut nécessite des ressources système standards. Vous pouvez l'utiliser pour tous les types de clusters.
Périphérie : le profil de périphérie a considérablement réduit les besoins en ressources système. Il est recommandé pour les appareils de périphérie disposant de ressources limitées. Vous ne pouvez utiliser le profil de périphérie que pour les clusters autonomes.
Ressources nécessaires pour tous les types de clusters utilisant le profil par défaut
Le tableau suivant décrit la configuration matérielle minimale et recommandée dont GKE sur Bare Metal a besoin pour faire fonctionner et gérer des clusters d'administrateur, hybrides, utilisateur et autonomes à l'aide du profil par défaut:
Ressource | Minimum | Recommandations |
---|---|---|
Processeurs / Processeurs virtuels* | 4 cœurs | 8 cœurs |
Mémoire RAM | 16 Gio | 32 Gio |
Stockage | 128 Gio | 256 Gio |
* GKE sur une solution Bare Metal n'est compatible qu'avec les processeurs x86-64 et les processeurs virtuels au niveau de la microarchitecture de processeur v3 (x86-64-v3) ou version ultérieure.
Ressources nécessaires pour les clusters autonomes utilisant le profil de périphérie
Le tableau suivant décrit la configuration matérielle minimale et recommandée dont GKE sur Bare Metal a besoin pour faire fonctionner et gérer des clusters autonomes à l'aide du profil périphérique:
Ressource | Minimum | Recommandations |
---|---|---|
Processeurs / Processeurs virtuels* | 2 cœurs | 4 cœurs |
RAM | Ubuntu: 4 Gio RHEL: 6 Gio |
Ubuntu: 8 Gio RHEL: 12 Gio |
Stockage | 128 Gio | 256 Gio |
* GKE sur une solution Bare Metal n'est compatible qu'avec les processeurs x86-64 et les processeurs virtuels au niveau de la microarchitecture de processeur v3 (x86-64-v3) ou version ultérieure.
Pour configurer des clusters autonomes à l'aide du profil de périphérie, suivez ces bonnes pratiques :
Exécutez
bmctl
sur un poste de travail distinct. Si vous devez exécuterbmctl
sur le nœud de cluster cible, vous avez besoin de 2 Go de mémoire pour répondre aux exigences minimales. Par exemple, vous avez besoin de 6 Gio pour Ubuntu et de 8 Gio pour CentOS ou RHEL.Définissez
MaxPodsPerNode
sur 110. Le cluster n'exécute pas plus de 30 pods utilisateur en moyenne par nœud. Vous aurez peut-être besoin de ressources supplémentaires pour une configurationMaxPodsPerNode
plus élevée ou d'exécuter plus de 30 pods utilisateur par nœud.L'environnement d'exécution de VM sur les composants GDC n'est pas pris en compte dans cette configuration minimale de ressources. L'environnement d'exécution des VM sur GDC nécessite des ressources supplémentaires en fonction du nombre de VM déployées dans le cluster.
Exigences de stockage supplémentaires
GKE sur Bare Metal ne fournit aucune ressource de stockage. Vous devez provisionner et configurer l'espace de stockage nécessaire sur votre système.
Pour connaître les exigences de stockage détaillées, consultez la section Présentation des conditions préalables à l'installation.
Pour en savoir plus sur la configuration de l'espace de stockage requis, consultez la page Configurer le stockage pour GKE sur une solution Bare Metal.
Prérequis associés à la machine de nœud
Les machines virtuelles du nœud doivent remplir les conditions suivantes :
- Leur système d'exploitation fait partie des distributions compatibles avec Linux. Pour en savoir plus, consultez la page Sélectionner votre système d'exploitation.
- La version du noyau Linux est 4.17.0 ou ultérieure. Ubuntu 18.04 et 18.04.1 utilisent la version de noyau 4.15 de Linux, et sont donc incompatibles.
- Disposer de la configuration matérielle minimale requise.
- Disposer d'un accès à Internet.
- Connectivité de couche 3 à toutes les autres machines de nœud.
- Accès à l'adresse IP virtuelle du plan de contrôle.
- Serveurs de noms DNS correctement configurés
- Aucun nom d'hôte en double.
- L'un des services NTP suivants est activé et fonctionnel :
- chrony
- ntp
- ntpdate
- systemd-timesyncd
- Un gestionnaire de packages fonctionnel, tel que apt ou dnf.
- Sur Ubuntu, vous devez désactiver le pare-feu UFW (Uncomplicated Firewall).
Exécutez
systemctl stop ufw
pour désactiver le pare-feu UFW. Sous Ubuntu et à partir de GKE sur Bare Metal 1.8.2, vous n'êtes pas obligé de désactiver AppArmor. Si vous déployez des clusters à l'aide des versions antérieures de GKE sur une solution Bare Metal, désactivez AppArmor à l'aide de la commande suivante :
systemctl stop apparmor
Lors de la création de clusters, seule l'espace libre requis pour les composants système GKE sur Bare Metal est vérifiée. Cette modification vous permet de mieux contrôler l'espace que vous allouez aux charges de travail de l'application. Chaque fois que vous installez GKE sur une solution Bare Metal, assurez-vous que les systèmes de fichiers soutenant les répertoires suivants disposent de la capacité requise et répondent aux exigences suivantes:
/
: 17 Gio (18 253 611 008 octets)./var/lib/containerd
:- 30 Gio (32 212 254 720 octets) pour les nœuds du plan de contrôle
- 10 Gio (10 485 760 octets) pour les nœuds de calcul
/var/lib/kubelet
: 500 Mio (524 288 000 octets)/var/lib/etcd
: 20 Gio (21 474 836 480 octets, applicable uniquement aux nœuds du plan de contrôle)
Quelle que soit la version du cluster, les listes de répertoires précédentes peuvent se trouver sur les mêmes partitions ou sur différentes partitions. S'ils se trouvent sur la même partition sous-jacente, l'espace requis est la somme de l'espace requis pour chaque répertoire individuel sur cette partition. Pour toutes les versions, le processus de création de cluster crée les répertoires, le cas échéant.
Les répertoires
/var/lib/etcd
et/etc/kubernetes
sont soit inexistants, soit vides.
En plus des conditions préalables à l'installation et à l'exécution de GKE sur une solution Bare Metal, les clients doivent respecter les normes applicables à leur secteur ou segment d'activité, telles que les exigences PCI DSS pour les entreprises qui traitent des cartes de crédit ou les guides d'implémentation technique de la sécurité (STIG) pour les entreprises du secteur de la défense.
Prérequis pour les machines d'équilibrage de charge
Lorsque votre déploiement ne comporte pas de pool de nœuds d'équilibreur de charge spécialisé, vous pouvez demander aux nœuds de calcul ou aux nœuds du plan de contrôle de créer un pool de nœuds d'équilibreur de charge. Dans ce cas, des conditions préalables supplémentaires s'appliquent:
- Les machines se trouvent dans le même sous-réseau de couche 2.
- Toutes les adresses IP virtuelles se trouvent dans le sous-réseau des nœuds de l'équilibreur de charge et peuvent être routées à partir de la passerelle du sous-réseau.
- La passerelle du sous-réseau de l'équilibreur de charge doit écouter les ARP gratuits pour transférer les paquets à l'équilibreur de charge principal.