Présentation de l'administration de cluster


Dans Google Kubernetes Engine (GKE), vous définissez la configuration et les caractéristiques d'un cluster à l'aide d'outils et d'API Google Cloud, tels que Google Cloud CLI et la console Google Cloud. Ces tâches comprennent la création, la mise à jour et la suppression de clusters, l'ajout ou la suppression de nœuds, ainsi que le contrôle des accès au cluster à l'aide d'Identity and Access Management (IAM).

Pour contrôler le comportement interne d'un cluster, vous utilisez l'API Kubernetes et l'interface de ligne de commande kubectl. Vous pouvez également configurer de nombreux aspects du comportement d'un cluster à l'aide de Google Cloud Console.

Administration basique de cluster

Les tâches d'administration basique de cluster sont spécifiques aux clusters GKE sur Google Cloud et n'impliquent généralement pas le système Kubernetes lui-même. Vous effectuez ces tâches entièrement à l'aide de la console Google Cloud, de Google Cloud CLI ou de l'API GKE.

Mises à jour des clusters et des nœuds

Par défaut, les clusters et les pools de nœuds sont mis à niveau automatiquement. Documentez-vous sur la configuration du fonctionnement des mises à jour au niveau de chaque cluster, y compris sur les cas où elles peuvent ou non se produire.

Configuration au niveau du cluster

Les tâches de configuration au niveau du cluster incluent la création et la suppression de clusters et de nœuds GKE. Vous pouvez contrôler à quel moment les tâches de maintenance de cluster peuvent se produire et configurer l'autoscaling au niveau du cluster.

Configuration des nœuds

GKE propose différentes options pour les nœuds de votre cluster. Par exemple, vous pouvez créer un ou plusieurs pools de nœuds. Il s'agit de groupes de nœuds au sein de votre cluster qui partagent une configuration commune. Votre cluster doit disposer d'au moins un pool de nœuds. Un deuxième pool de nœuds nommé default est créé lors de la création du cluster.

Pour les clusters standards, vous pouvez définir d'autres options de nœud pour chaque pool, parmi lesquelles :

Configurer la surveillance des clusters

Google vous recommande d'utiliser le service géré pour Prometheus de Google Cloud pour surveiller vos applications et votre infrastructure Kubernetes.

Le service géré pour Prometheus est la solution multicloud entièrement gérée de Google Cloud pour les métriques Prometheus. Il vous permet de surveiller vos charges de travail et d'envoyer des alertes à l'échelle mondiale à l'aide de Prometheus, sans avoir à gérer et exploiter manuellement Prometheus à grande échelle.

Le service géré pour Prometheus collecte les métriques des exportateurs Prometheus et vous permet d'interroger les données à l'échelle mondiale à l'aide de PromQL, ce qui signifie que vous pouvez continuer à utiliser tous les tableaux de bord Grafana existants, les alertes basées sur PromQL et les workflows. Cet environnement est compatible avec le cloud hybride et le multicloud. Il peut surveiller les charges de travail Kubernetes et de VM, conserver les données pendant 24 mois et assurer la portabilité en restant compatible avec les services Prometheus en amont. Vous pouvez également compléter votre surveillance Prometheus en interrogeant plus de 1 500 métriques gratuites dans Cloud Monitoring, y compris des métriques système gratuites GKE, à l'aide de PromQL.

Pour plus d'informations sur la configuration de la surveillance des clusters, consultez les guides suivants :

Configurer la mise en réseau d'un cluster

Un autre aspect de l'administration de cluster consiste à activer et à contrôler différentes fonctionnalités de mise en réseau de votre cluster. La plupart des fonctionnalités de mise en réseau sont définies à la création d'un cluster : lorsque vous en créez un à l'aide d'une interface Google Cloud, vous devez activer les fonctionnalités de mise en réseau à utiliser. Certaines de ces fonctionnalités peuvent nécessiter une configuration supplémentaire à l'aide des interfaces Kubernetes, telles que l'interface de ligne de commande kubectl.

Par exemple, pour activer l'application des règles de réseau sur votre cluster GKE, vous devez commencer par activer cette fonctionnalité via la console Google Cloud ou Google Cloud CLI. Ensuite, vous devez spécifier les instructions de des règles de réseau à l'aide de l'API des règles de réseau Kubernetes ou de l'interface de ligne de commande kubectl. Pour les clusters Autopilot, la règle de réseau est désactivée par défaut, mais vous pouvez l'activer.

Pour en savoir plus sur l'activation des fonctionnalités de mise en réseau sur GKE, consultez les guides suivants :

Configurer la sécurité d'un cluster

GKE inclut des fonctionnalités de sécurité spécifiques à Google Cloud et Kubernetes que vous pouvez utiliser avec votre cluster. Vous pouvez gérer les fonctionnalités de sécurité au niveau de Google Cloud, telles que IAM, à l'aide de la console Google Cloud. Il est possible de gérer des fonctionnalités de sécurité au sein des clusters, comme le contrôle d'accès basé sur les rôles, à l'aide des API Kubernetes et d'autres interfaces.

Pour en savoir plus sur les fonctionnalités de sécurité disponibles dans GKE, consultez la page Présentation de la sécurité et la page Renforcer la sécurité d'un cluster. GKE Autopilot met en œuvre plusieurs de ces fonctionnalités de sécurité et bonnes pratiques de renforcement automatiquement. Pour en savoir plus, consultez la page Fonctionnalités de sécurité dans GKE Autopilot.

Configurer pour la reprise après sinistre

Pour garantir la disponibilité de vos charges de travail de production en cas d'interruption de service, vous devez préparer un plan de reprise après sinistre. Pour en savoir plus sur la planification de reprise après sinistre, consultez le Guide de planification de reprise après sinistre.

Votre configuration Kubernetes et les volumes persistants ne seront pas sauvegardés, sauf si vous effectuez une action explicite. Pour sauvegarder et restaurer votre configuration Kubernetes et vos volumes persistants sur des clusters GKE, vous pouvez utiliser Sauvegarde pour GKE.