Présentation de Google Distributed Cloud (logiciel uniquement) pour Bare Metal

Google Distributed Cloud est notre solution qui étend l'infrastructure et les services Google Cloud à votre centre de données. Nous proposons Google Distributed Cloud dans des configurations connectées et sous air gap qui s'exécutent sur du matériel fourni par Google. Nous proposons également Google Distributed Cloud sous forme de produit logiciel uniquement (anciennement appelé Google Distributed Cloud Virtual) qui s'exécute sur votre propre matériel. Le logiciel Google Distributed Cloud peut être installé sur VMware ou sur Bare Metal. Ce guide est destiné aux logiciels Google Distributed Cloud qui s'exécutent directement sur vos machines Bare Metal.

Le logiciel Google Distributed Cloud est basé sur Google Kubernetes Engine (GKE), avec son propre package Kubernetes qui étend GKE pour une utilisation dans un environnement sur site. Avec Google Distributed Cloud, vous pouvez créer, gérer et mettre à niveau des clusters GKE sur votre propre site tout en utilisant les fonctionnalités de Google Cloud, et déployer et exploiter des applications conteneurisées sur vos clusters à grande échelle à l'aide de l'infrastructure de Google.

L'installation du logiciel Google Distributed Cloud vous donne droit à l'utilisation de GKE Enterprise, un niveau d'entreprise pour GKE qui offre des fonctionnalités puissantes pour contrôler, gérer et exploiter des charges de travail conteneurisées à grande échelle. Pour en savoir plus sur GKE Enterprise et sur les fonctionnalités disponibles sur solution Bare Metal, consultez la présentation technique de GKE Enterprise.

Pourquoi utiliser Google Distributed Cloud sur Bare Metal ?

L'exécution de logiciels Google Distributed Cloud sur Bare Metal exploite l'infrastructure existante de votre entreprise et vous aide à moderniser vos applications tout au long de leur cycle de vie.

Utilisation de votre propre nœud

Avec une installation logicielle Google Distributed Cloud sur Bare Metal, vous déployez des applications directement sur votre propre infrastructure matérielle, ce qui offre des performances et une flexibilité optimales. Vous contrôlez directement l'évolutivité de vos applications, leur sécurité et la latence du réseau. Vous bénéficiez également des avantages des applications en conteneur via les composants GKE, y compris des puissantes fonctionnalités du niveau Entreprise.

Performances améliorées et réduction des coûts

Google Distributed Cloud gère le déploiement et l'état des applications dans vos centres de données d'entreprise existants pour un fonctionnement plus efficace. Vous pouvez également exécuter des conteneurs à la périphérie du réseau, afin que les applications analytiques puissent s'exécuter à plein rendement.

L'utilisation de Google Distributed Cloud sur Bare Metal plutôt que sur des machines virtuelles vous permet de gérer des conteneurs d'applications sur une grande variété de types de matériel aux performances optimisées, tels que des GPU et des SSD. Exécuter Google Distributed Cloud sur bare metal permet également aux applications d'accéder directement au matériel.

Sécurité compatible

Comme vous contrôlez l'environnement de votre nœud, vous pouvez optimiser votre réseau, votre matériel et vos applications pour répondre à vos besoins spécifiques. Vous pouvez ainsi contrôler directement la sécurité du système, sans vous soucier de la compatibilité avec les machines virtuelles et les systèmes d'exploitation.

Déploiement d'applications surveillées

Google Distributed Cloud permet de surveiller de manière avancée l'état et les performances de votre environnement. Vous pouvez ajuster plus facilement l'échelle des applications tout en maintenant la fiabilité malgré les fluctuations de la charge de travail et du trafic réseau.

Vous gérez la surveillance, la journalisation et l'analyse des clusters et des charges de travail via Connect

Latence et flexibilité du réseau

Étant donné que vous gérez les exigences de votre réseau, celui-ci peut être optimisé pour une faible latence. Cette optimisation du réseau peut être cruciale pour les performances des analyses commerciales ou financières, ainsi que pour d'autres applications d'entreprise ou de réseau.

Disponibilité élevée

Google Distributed Cloud accepte plusieurs nœuds de contrôle au sein d'un cluster. Si un nœud de plan de contrôle tombe en panne, vous pouvez toujours administrer votre environnement.

Conception et contrôle sécurisés

Vous pouvez personnaliser la sécurité de votre infrastructure selon vos besoins, avec un nombre minimal de connexions à des ressources externes. Plus important encore, il n'y a pas de complexité de VM supplémentaire lors du déploiement des systèmes de sécurité. De plus, vous disposez d'un contrôle complet de l'OS lors de l'interaction avec les systèmes de sécurité existants.

Google Distributed Cloud fonctionne avec des connexions sécurisées légères aux API Google. Vous pouvez gérer des clusters et des applications depuis un emplacement central avec Connect et Cloud Monitoring. Cette centralisation contribue également au bon fonctionnement de vos déploiements et permet à l'assistance Google Cloud de résoudre les problèmes plus efficacement.

Vérifications préalables à l'installation

Avec Google Distributed Cloud, vos clusters GKE s'exécutent sur des systèmes Open Source et Enterprise Linux, ainsi que sur une infrastructure matérielle minimale, en vous offrant une flexibilité sur votre environnement. Il comprend également diverses vérifications préalables au lancement afin de garantir la réussite des configurations et des installations.

Déploiement d'applications et équilibrage de charge

Google Distributed Cloud inclut des mécanismes d'équilibrage de charge de couche 4 et de couche 7 lors de la création du cluster.

Amélioration de la fiabilité de etcd

Pour surveiller la taille et défragmenter les bases de données etcd, les plans de contrôle Google Distributed Cloud incluent un pod etcddefrag. Le pod etcddefrag récupère de l'espace de stockage sur des bases de données etcd volumineuses, ainsi que etcd lorsque l'espace disque est dépassé.

Fonctionnement

Google Distributed Cloud étend Google Kubernetes Engine (GKE) pour vous permettre de créer des clusters GKE sur vos propres serveurs Linux sur votre propre site. Vous gérez ces clusters dans Google Cloud conjointement à vos clusters GKE standards et à ceux hébergés dans d'autres environnements, dans le cadre d'un parc.

Les clusters GKE traditionnels s'exécutent dans Google Cloud, où le plan de contrôle et l'infrastructure réseau Kubernetes sont gérés par Google Cloud. Étant donné que les clusters Google Distributed Cloud s'exécutent dans votre centre de données, nous fournissons des logiciels d'administration et de plan de contrôle en plus du logiciel GKE. Le logiciel exécuté dans votre centre de données est téléchargé lors du processus d'installation et de mise à niveau.

Le schéma suivant illustre le résultat simplifié d'une installation terminée :

Schéma d'un cluster d'administrateur et d'un cluster d'utilisateur
Architecture Google Distributed Cloud sur serveur bare metal avec un cluster d'administrateur et un cluster d'utilisateur (cliquez pour agrandir)

Composants clés

Les composants suivants constituent une installation logicielle uniquement sur un serveur bare metal de Google Distributed Cloud :

  • Le cluster d'administrateur comprend un ou plusieurs nœuds de plan de contrôle. Chaque nœud est une machine physique exécutant un système d'exploitation Linux compatible. Le déploiement standard se compose d'un cluster d'administrateur qui gère le cycle de vie d'un ou de plusieurs clusters utilisateur via Kubernetes Resource Management (KRM). Chaque machine de nœud de l'installation possède sa propre adresse IP.

  • Un cluster utilisateur est l'emplacement où s'exécutent les charges de travail qui implémentent vos applications, comme dans GKE sur Google Cloud. Chaque cluster utilisateur comprend au moins un nœud de plan de contrôle et un nœud de calcul.

  • Le poste de travail administrateur est généralement une machine distincte qui inclut les outils et les artefacts de cluster, tels que les fichiers de configuration. Les créateurs et les développeurs de clusters utilisent ces outils et artefacts pour gérer leurs clusters GKE sur site, avec les autorisations appropriées :

    • L'exécution de bmctl à partir du poste de travail administrateur vous permet de créer et de mettre à jour des clusters, et d'effectuer d'autres tâches administratives.

    • L'exécution de kubectl à partir de la station de travail administrateur vous permet d'interagir avec vos clusters d'administrateur et d'utilisateur, y compris pour déployer et gérer des charges de travail.

  • L'API GKE On-Prem est l'API hébergée par Google Cloud pour la gestion du cycle de vie des clusters. Vous pouvez utiliser les clients d'API (console Google Cloud, Google Cloud CLI et Terraform) pour créer et gérer le cycle de vie de vos clusters sur site, au lieu de vous connecter à la station de travail de l'administrateur pour gérer vos clusters avec la CLI bmctl.

  • La console fournit également une interface Web pour votre projet Google Cloud, y compris les clusters sur site. La console affiche des métriques clés sur vos clusters pour vous aider à surveiller leur état.

  • Les administrateurs et les développeurs de cluster utilisent kubectl pour accéder aux plans de contrôle du cluster via des adresses IP virtuelles (IPV) spécifiées dans le cadre de la configuration du cluster. Les développeurs et les utilisateurs d'applications utilisent les adresses IP virtuelles de service et d'entrée pour accéder aux charges de travail et les exposer, respectivement.

Se connecter au parc

Tous les clusters utilisateur (et éventuellement les clusters administrateur) sont membres d'un parc, qui est un regroupement logique de clusters Kubernetes. Les parcs facilitent la gestion de votre entreprise avec des groupes de clusters plutôt que des clusters individuels, et peuvent aider vos équipes à adopter les bonnes pratiques similaires à celles utilisées chez Google. Vous pouvez afficher et gérer les clusters de parc dans la console Google Cloud, et utiliser les fonctionnalités de GKE Enterprise compatibles avec les parcs pour vous aider à gérer, contrôler et exploiter vos charges de travail à grande échelle. Vous pouvez consulter la liste complète des fonctionnalités du parc disponibles pour les environnements sur site dans les options de déploiement de GKE Enterprise.

La connexion de chaque cluster de parc à Google Cloud est gérée par un agent Connect, qui est déployé dans le cadre du processus d'installation de Google Distributed Cloud. Pour en savoir plus sur le fonctionnement de cet agent, consultez la présentation de l'agent Connect.

L'appartenance à un parc permet également de gérer la tarification de Google Distributed Cloud sur Bare Metal, comme décrit dans la section suivante.

Pour en savoir plus sur les fonctionnalités de GKE Enterprise et leur fonctionnement, consultez la présentation technique de GKE Enterprise.

Tarification

Les clusters GKE sur site créés à l'aide de Google Distributed Cloud sont facturés par processeur virtuel dans le cadre de GKE Enterprise. Pour activer le niveau d'entreprise, activez l'API Anthos dans votre projet Google Cloud.

Pour obtenir des informations complètes sur les tarifs, y compris sur la manière de contacter le service commercial, consultez la page Tarifs de Google Kubernetes Engine.

Versions

Pour en savoir plus sur les versions Google Distributed Cloud, consultez la page Politique de compatibilité avec les versions.

Installer Google Distributed Cloud sur Bare Metal

Étant donné que les clusters GKE créés à l'aide de Google Distributed Cloud s'exécutent dans votre propre infrastructure, ils sont hautement configurables. Une fois que vous avez sélectionné le modèle de déploiement répondant aux besoins de votre organisation et de votre cas d'utilisation spécifiques, vous pouvez choisir parmi un éventail de modes d'équilibrage de charge, d'options d'adressage IP et de fonctionnalités de sécurité compatibles, d'options de connectivité, etc. La configuration d'un cluster GKE sur un serveur bare metal implique de prendre des décisions avant et pendant l'installation. Cet ensemble de documentation inclut des guides pour aider votre équipe à choisir les fonctionnalités et les options qui vous conviennent. Pour vous assurer que votre installation répond aux besoins de votre organisation, consultez vos équipes réseau et d'application.