Google Distributed Cloud est compatible avec une grande variété de systèmes s'exécutant sur le matériel compatible avec les distributions du système d'exploitation cible. Une configuration Google Distributed Cloud peut s'exécuter sur plusieurs machines ou sur un minimum de matériel pour offrir flexibilité, disponibilité et performances.
Quelle que soit votre configuration Google Distributed Cloud, vos nœuds et clusters doivent disposer de suffisamment de ressources de processeur, de RAM et de stockage pour répondre aux besoins des clusters et des charges de travail que vous exécutez.
Configuration minimale requise et recommandée pour le processeur, la mémoire RAM et le stockage
Lorsque vous installez Google Distributed Cloud, vous pouvez créer différents types de clusters:
- Un cluster d'utilisateur qui exécute des charges de travail.
- Un cluster d'administrateur crée et contrôle des clusters d'utilisateur pour exécuter des charges de travail.
- Un cluster autonome est un cluster unique qui peut gérer et exécuter des charges de travail, mais qui ne peut pas créer ni gérer de clusters d'utilisateur.
- Un cluster hybride peut gérer et exécuter des charges de travail, et un cluster hybride peut également créer et gérer des clusters d'utilisateur supplémentaires.
En plus du type de cluster, vous pouvez choisir parmi les profils d'installation suivants en termes de besoins en ressources :
Par défaut : le profil par défaut nécessite des ressources système standards. Vous pouvez l'utiliser pour tous les types de clusters.
Périphérie : le profil de périphérie a considérablement réduit les besoins en ressources système. Il est recommandé pour les appareils de périphérie disposant de ressources limitées. Vous ne pouvez utiliser le profil de périphérie que pour les clusters autonomes.
Ressources nécessaires pour tous les types de clusters utilisant le profil par défaut
Le tableau suivant décrit la configuration matérielle minimale et recommandée dont Google Distributed Cloud a besoin pour faire fonctionner et gérer des clusters d'administrateur, hybrides, d'utilisateur et autonomes à l'aide du profil par défaut:
Ressource | Minimum | Recommandé |
---|---|---|
Processeurs / processeurs virtuels* | 4 cœurs | 8 cœurs |
Mémoire RAM | 16 Gio | 32 Gio |
Stockage | 128 Gio | 256 Gio |
* Google Distributed Cloud n'accepte que les processeurs et les processeurs virtuels x86-64 au niveau de la microarchitecture de processeur v3 (x86-64-v3) ou version ultérieure.
Ressources nécessaires pour les clusters autonomes utilisant le profil de périphérie
Le tableau suivant décrit la configuration matérielle minimale et recommandée dont Google Distributed Cloud a besoin pour faire fonctionner et gérer les clusters autonomes à l'aide du profil périphérique:
Ressource | Minimum | Recommandé |
---|---|---|
Processeurs / processeurs virtuels* | 2 cœurs | 4 cœurs |
RAM | Ubuntu: 4 Gio RHEL: 6 Gio |
Ubuntu: 8 Gio RHEL: 12 Gio |
Stockage | 128 Gio | 256 Gio |
* Google Distributed Cloud n'accepte que les processeurs et les processeurs virtuels x86-64 au niveau de la microarchitecture de processeur v3 (x86-64-v3) ou version ultérieure.
Pour configurer des clusters autonomes à l'aide du profil de périphérie, suivez ces bonnes pratiques :
Exécutez
bmctl
sur un poste de travail distinct. Si vous devez exécuterbmctl
sur le nœud de cluster cible, vous avez besoin de 2 Go de mémoire pour répondre aux exigences minimales. Par exemple, vous avez besoin de 6 Gio pour Ubuntu et de 8 Gio pour RHEL.Définissez
MaxPodsPerNode
sur 110. Le cluster n'exécute pas plus de 30 pods utilisateur en moyenne par nœud. Vous aurez peut-être besoin de ressources supplémentaires pour une configurationMaxPodsPerNode
plus élevée ou d'exécuter plus de 30 pods utilisateur par nœud.Les composants de l'environnement d'exécution de VM sur GDC ne sont pas pris en compte dans cette configuration de ressource minimale. L'environnement d'exécution des VM sur GDC nécessite des ressources supplémentaires en fonction du nombre de VM déployées dans le cluster.
Exigences de stockage supplémentaires
Google Distributed Cloud ne fournit aucune ressource de stockage. Vous devez provisionner et configurer l'espace de stockage nécessaire sur votre système.
Pour connaître les exigences de stockage détaillées, consultez la section Présentation des conditions préalables à l'installation.
Pour en savoir plus sur la configuration du stockage requis, consultez la page Configurer le stockage pour Google Distributed Cloud.
Prérequis associés à la machine de nœud
Les machines virtuelles du nœud doivent remplir les conditions suivantes :
- Disposer de la configuration matérielle minimale requise.
- Le système d'exploitation est l'une des distributions Linux compatibles. Pour en savoir plus, y compris sur la configuration requise pour le noyau, consultez la section Sélectionner votre système d'exploitation.
- Disposer d'un accès à Internet.
- Connectivité de couche 3 à toutes les autres machines de nœud.
- Accès à l'adresse IP virtuelle du plan de contrôle.
- Accès aux ports requis. Pour connaître les exigences spécifiques concernant les ports pour les nœuds du plan de contrôle, les nœuds de calcul et les nœuds d'équilibreur de charge, consultez la section Utilisation du port sur la page "Configuration réseau requise".
- Serveurs de noms DNS correctement configurés.
- Aucun nom d'hôte en double.
- L'un des services NTP suivants est activé et fonctionnel :
- chrony
- ntp
- ntpdate
- systemd-timesyncd
- Un gestionnaire de packages de travail, tel que
apt
oudnf
Sur Ubuntu, vous devez désactiver le pare-feu UFW (Uncomplicated Firewall). Exécutez
systemctl stop ufw
pour désactiver le pare-feu UFW.L'un des modules de noyau réseau suivants doit être chargé:
ip_tables
(différent du package Debian d'interfaceiptables
, qui n'est pas obligatoire)nf_tables
Pour charger un module, exécutez la commande suivante:
modprobe MODULE_NAME
La création de clusters ne vérifie que l'espace libre requis pour les composants du système Google Distributed Cloud. Cette modification vous permet de mieux contrôler l'espace que vous allouez aux charges de travail de l'application. Chaque fois que vous installez Google Distributed Cloud, assurez-vous que les systèmes de fichiers qui sauvegardent les répertoires suivants disposent de la capacité requise et répondent aux exigences suivantes:
/
: 17 Gio (18 253 611 008 octets)./var/lib/containerd
:- 30 Gio (32 212 254 720 octets) pour les nœuds du plan de contrôle
- 10 Gio (10 485 760 octets) pour les nœuds de calcul
/var/lib/kubelet
: 500 Mio (524 288 000 octets)/var/lib/etcd
: 20 Gio (21 474 836 480 octets, applicable uniquement aux nœuds du plan de contrôle)/var/lib/etcd-events
: 5 Gio (5 368 709 120 octets, applicable uniquement aux nœuds du plan de contrôle)
Quelle que soit la version du cluster, les listes de répertoires précédentes peuvent se trouver sur les mêmes partitions ou sur différentes partitions. S'ils se trouvent sur la même partition sous-jacente, l'espace requis est la somme de l'espace requis pour chaque répertoire individuel sur cette partition. Pour toutes les versions, le processus de création de cluster crée les répertoires, le cas échéant.
Les répertoires
/var/lib/etcd
et/etc/kubernetes
sont soit inexistants, soit vides.Pour les machines exécutant RHEL 9.2 ou Ubuntu 22.04, les limites de
inotify
du noyau Linux pour le nombre maximal d'instances et d'utilisateurs doivent être supérieures ou égales à ce qui suit:fs.inotify.max_user_instances
:8192
fs.inotify.max_user_watches
:524288
Pour en savoir plus, consultez la documentation de configuration de RHEL ou d'Ubuntu.
En plus des conditions préalables à l'installation et à l'exécution de Google Distributed Cloud, les clients doivent respecter les normes pertinentes régissant leur secteur ou leur secteur d'activité, telles que les exigences PCI DSS pour les entreprises qui traitent des cartes de crédit ou les guides d'implémentation technique de sécurité (STIG) pour les entreprises du secteur de la défense.
Prérequis pour les machines d'équilibrage de charge
Lorsque votre déploiement ne dispose pas d'un pool de nœuds d'équilibreur de charge spécialisé, vous pouvez demander aux nœuds de calcul ou aux nœuds du plan de contrôle de créer un pool de nœuds d'équilibreur de charge. Dans ce cas, des conditions préalables supplémentaires s'appliquent:
- Les machines se trouvent dans le même sous-réseau de couche 2.
- Toutes les adresses IP virtuelles se trouvent dans le sous-réseau des nœuds de l'équilibreur de charge et peuvent être routées à partir de la passerelle du sous-réseau.
- La passerelle du sous-réseau de l'équilibreur de charge doit écouter les ARP gratuits pour transférer les paquets à l'équilibreur de charge principal.