Google Distributed Cloud est notre solution qui étend l'infrastructure et les services Google Cloud à votre centre de données. Nous proposons Google Distributed Cloud dans des configurations connectées ou sous air gap qui s'exécutent sur du matériel fourni par Google. Nous proposons également Google Distributed Cloud sous la forme d'un produit exclusivement logiciel (anciennement appelé Google Distributed Cloud Virtual) qui s'exécute sur votre propre matériel. Le logiciel Google Distributed Cloud peut être installé sur VMware ou sur Bare Metal. Ce guide est destiné au logiciel Google Distributed Cloud qui s'exécute directement sur vos machines Bare Metal.
Le logiciel Google Distributed Cloud est basé sur Google Kubernetes Engine (GKE), avec son propre package Kubernetes qui étend GKE pour une utilisation dans un environnement sur site. Avec Google Distributed Cloud, vous pouvez créer, gérer et mettre à niveau des clusters GKE sur site tout en utilisant les fonctionnalités Google Cloud, ainsi que déployer et exploiter des applications conteneurisées sur vos clusters à grande échelle à l'aide de l'infrastructure de Google.
L'installation du logiciel Google Distributed Cloud vous permet d'utiliser GKE Enterprise, un niveau Enterprise pour GKE doté de fonctionnalités puissantes de contrôle, de gestion et d'exploitation des charges de travail conteneurisées à grande échelle. Pour en savoir plus sur GKE Enterprise et les fonctionnalités disponibles sur bare metal, consultez la présentation technique de GKE Enterprise.
Pourquoi utiliser Google Distributed Cloud sur une solution Bare Metal ?
L'exécution du logiciel Google Distributed Cloud sur une solution Bare Metal exploite l'infrastructure existante de votre entreprise et vous aide à moderniser les applications tout au long de leur cycle de vie.
Utilisation de votre propre nœud
Avec une installation logicielle sur bare metal de Google Distributed Cloud, vous déployez des applications directement sur votre propre infrastructure matérielle, ce qui offre les meilleures performances et une plus grande flexibilité. Vous contrôlez directement l'évolutivité, la sécurité et la latence du réseau. Vous bénéficiez également des avantages des applications conteneurisées via les composants GKE, y compris des fonctionnalités puissantes du niveau Entreprise.
Performances améliorées et réduction des coûts
Google Distributed Cloud gère le déploiement et l'état des applications dans vos centres de données d'entreprise existants pour un fonctionnement plus efficace. En outre, vous pouvez exécuter des conteneurs à la périphérie du réseau, afin que les applications analytiques puissent s'exécuter avec des performances optimales.
L'utilisation de Google Distributed Cloud sur des serveurs Bare Metal au lieu de machines virtuelles vous permet de gérer les conteneurs d'applications sur une grande variété de types de matériel optimisés pour les performances, tels que des GPU et des SSD. L'exécution de Google Distributed Cloud sur une solution Bare Metal permet également d'accéder directement au matériel des applications.
Sécurité compatible
Comme vous contrôlez l'environnement de votre nœud, vous pouvez optimiser votre réseau, votre matériel et vos applications pour répondre à vos besoins spécifiques. Vous pouvez ainsi contrôler directement la sécurité du système, sans vous soucier de la compatibilité avec les machines virtuelles et les systèmes d'exploitation.
Déploiement d'applications surveillées
Google Distributed Cloud fournit une surveillance avancée de l'état et des performances de votre environnement. Vous pouvez plus facilement ajuster l'échelle des applications tout en maintenant la fiabilité malgré les fluctuations de la charge de travail et du trafic réseau.
Vous gérez la surveillance, la journalisation et l'analyse des clusters et des charges de travail via Connect
Latence et flexibilité du réseau
Comme vous gérez les exigences de votre réseau, celui-ci peut être optimisé pour une faible latence. Cette optimisation du réseau peut s'avérer cruciale pour les performances d'analyse commerciale ou financière, ainsi que pour d'autres applications d'entreprise ou en périphérie de réseau.
Disponibilité élevée
Google Distributed Cloud est compatible avec plusieurs nœuds de contrôle dans un cluster. Si un nœud du plan de contrôle tombe en panne, vous pouvez toujours administrer votre environnement.
Conception et contrôle sécurisés
Vous pouvez personnaliser la sécurité de votre infrastructure en fonction de vos besoins, avec un minimum de connexions à des ressources externes. Plus important encore, le déploiement de systèmes de sécurité réduit la complexité des VM et vous permet de contrôler entièrement l'OS lors de l'interaction avec les systèmes de sécurité existants.
Google Distributed Cloud fonctionne avec des connexions sécurisées et légères aux API Google. Vous pouvez gérer les clusters et les applications de manière centralisée à l'aide de Connect et de Cloud Monitoring. Cette centralisation contribue également au bon déroulement des déploiements et permet à l'assistance Google Cloud de résoudre les problèmes plus efficacement.
Vérifications préalables à l'installation
Avec Google Distributed Cloud, vos clusters GKE s'exécutent sur des systèmes Linux d'entreprise et Open Source, ainsi que sur une infrastructure matérielle minimale. Ils sont donc flexibles dans votre environnement. Il inclut également diverses vérifications préliminaires permettant de garantir la réussite des configurations et des installations.
Déploiement d'applications et équilibrage de charge
Google Distributed Cloud inclut des mécanismes d'équilibrage de charge de couche 4 et de couche 7 lors de la création du cluster.
Amélioration de la fiabilité de etcd
Pour surveiller la taille et défragmenter les bases de données etcd
, les plans de contrôle Google Distributed Cloud incluent un pod etcddefrag
. Le pod etcddefrag
récupère l'espace de stockage des bases de données etcd
volumineuses et récupère etcd
lorsque l'espace disque est dépassé.
Fonctionnement
Google Distributed Cloud étend Google Kubernetes Engine (GKE) pour vous permettre de créer des clusters GKE sur vos propres serveurs Linux et sur votre propre site. Vous gérez ces clusters sur site dans Google Cloud avec les clusters GKE standards et les clusters dans d'autres environnements dans le cadre d'un parc.
Les clusters GKE traditionnels s'exécutent dans Google Cloud, où le plan de contrôle et l'infrastructure réseau Kubernetes sont gérés par Google Cloud. Étant donné que les clusters Google Distributed Cloud s'exécutent dans votre centre de données, nous fournissons des logiciels d'administration et de plan de contrôle en plus du logiciel GKE. Le logiciel exécuté dans votre centre de données est téléchargé dans le cadre des processus d'installation et de mise à niveau.
Le schéma suivant illustre le résultat simplifié d'une installation terminée:
Composants clés
Les composants suivants constituent une installation logicielle sur bare metal de Google Distributed Cloud:
Le cluster d'administrateur comprend un ou plusieurs nœuds de plan de contrôle. Chaque nœud est une machine physique exécutant un système d'exploitation Linux compatible. Le déploiement standard consiste en un cluster d'administrateur qui gère le cycle de vie d'un ou plusieurs clusters d'utilisateur via la gestion des ressources Kubernetes (KRM). Chaque machine de nœud de l'installation possède sa propre adresse IP.
Un cluster d'utilisateur est l'endroit où s'exécutent les charges de travail qui implémentent vos applications, par exemple dans GKE sur Google Cloud. Chaque cluster d'utilisateur comprend au moins un nœud de plan de contrôle et un nœud de calcul.
Le poste de travail administrateur est une machine distincte (généralement) qui comprend les outils et les artefacts du cluster, tels que les fichiers de configuration. Les créateurs et les développeurs de clusters utilisent ces outils et artefacts pour gérer leurs clusters GKE sur site, avec les autorisations appropriées:
L'exécution de
bmctl
à partir du poste de travail administrateur vous permet de créer et de mettre à jour des clusters, et d'effectuer d'autres tâches administratives.L'exécution de
kubectl
à partir du poste de travail administrateur vous permet d'interagir avec vos clusters d'administrateur et d'utilisateur, y compris de déployer et de gérer des charges de travail.
L'API GKE On-Prem est l'API hébergée par Google Cloud pour la gestion du cycle de vie des clusters. Vous pouvez utiliser les clients API (console Google Cloud, Google Cloud CLI et Terraform) pour créer et gérer le cycle de vie de vos clusters sur site au lieu de vous connecter au poste de travail administrateur pour gérer vos clusters avec la CLI
bmctl
.La console fournit également une interface Web pour votre projet Google Cloud, y compris les clusters sur site. La console affiche des métriques clés sur vos clusters pour vous aider à surveiller leur état.
Les administrateurs et les développeurs du cluster utilisent
kubectl
pour accéder aux plans de contrôle du cluster via des adresses IP virtuelles (VIP) spécifiées dans le cadre de la configuration du cluster. Les utilisateurs et les développeurs d'applications utilisent respectivement des adresses IP virtuelles de service et d'entrée pour accéder aux charges de travail et les exposer.
Connexion au parc...
Tous les clusters d'utilisateur (et éventuellement les clusters d'administrateur) sont membres d'un parc, un regroupement logique de clusters Kubernetes. Les parcs permettent à votre organisation de faire passer la gestion de clusters individuels à des groupes entiers de clusters, et peuvent aider vos équipes à adopter des bonnes pratiques semblables à celles utilisées chez Google. Vous pouvez afficher et gérer les clusters de parc ensemble dans la console Google Cloud, et utiliser les fonctionnalités GKE Enterprise au niveau du parc pour vous aider à gérer, gouverner et exploiter vos charges de travail à grande échelle. Vous pouvez consulter la liste complète des fonctionnalités de parc disponibles pour les environnements sur site dans la section Options de déploiement de GKE Enterprise.
La connexion de chaque cluster de parc à Google Cloud est gérée par un agent Connect, qui est déployé dans le cadre du processus d'installation de Google Distributed Cloud. Pour en savoir plus sur le fonctionnement de cet agent, consultez la présentation de l'agent Connect.
L'appartenance à un parc permet également de gérer les tarifs de Google Distributed Cloud en bare metal, comme décrit dans la section suivante.
Pour en savoir plus sur les fonctionnalités de GKE Enterprise et leur synergie, consultez la présentation technique de GKE Enterprise.
Tarification
Les clusters GKE sur site créés à l'aide de Google Distributed Cloud sont facturés par processeur virtuel dans le cadre de GKE Enterprise. Pour activer le niveau Enterprise, activez l'API Anthos dans votre projet Google Cloud.
Pour en savoir plus sur les tarifs et découvrir comment contacter le service commercial, consultez la page Tarifs de Google Kubernetes Engine.
Versions
Pour en savoir plus sur les versions de Google Distributed Cloud, consultez les Règles de compatibilité avec les versions.
Installer Google Distributed Cloud sur Bare Metal
Étant donné que les clusters GKE créés à l'aide de Google Distributed Cloud s'exécutent dans votre propre infrastructure, ils sont hautement configurables. Une fois que vous avez sélectionné le modèle de déploiement qui répond aux besoins spécifiques de votre organisation et de votre cas d'utilisation, vous pouvez choisir parmi une gamme de modes d'équilibrage de charge compatibles, d'options d'adressage IP, de fonctionnalités de sécurité, d'options de connectivité, etc. La configuration d'un cluster GKE sur bare metal implique de prendre des décisions avant et pendant l'installation. Cet ensemble de documentations comprend des guides pour aider votre équipe à choisir les fonctionnalités et les options appropriées. Pour vous assurer que votre installation répond aux besoins de votre organisation, consultez vos équipes chargées des applications et de la mise en réseau.