Présentation de Google Distributed Cloud (logiciel uniquement) pour une solution Bare Metal

Google Distributed Cloud est notre solution qui étend l'infrastructure et les services Google Cloud à votre centre de données. Nous proposons Google Distributed Cloud sous forme de configurations connectées et sous air gap qui s'exécutent sur du matériel fourni par Google. Nous proposons également Google Distributed Cloud en tant que produit exclusivement logiciel qui s'exécute sur votre propre matériel. Le logiciel Google Distributed Cloud peut être installé sur VMware ou sur une solution Bare Metal. Ce guide est destiné au logiciel Google Distributed Cloud qui s'exécute directement sur vos machines Bare Metal.

Google Distributed Cloud est basé sur Google Kubernetes Engine (GKE), doté de son propre package Kubernetes qui étend GKE pour une utilisation sur site. Avec Google Distributed Cloud, vous pouvez créer, gérer et mettre à niveau des clusters GKE sur vos propres sites tout en utilisant les fonctionnalités de Google Cloud. Vous pouvez également déployer et exploiter des applications conteneurisées sur vos clusters à grande échelle à l'aide de l'infrastructure de Google.

L'installation du logiciel Google Distributed Cloud vous permet d'utiliser GKE Enterprise, une version Enterprise pour GKE dotée de puissantes fonctionnalités de contrôle, de gestion et d'exploitation de charges de travail conteneurisées à grande échelle. Pour en savoir plus sur GKE Enterprise et les fonctionnalités disponibles sur bare metal, consultez la présentation technique de GKE Enterprise.

Pourquoi utiliser Google Distributed Cloud sur une solution Bare Metal ?

L'exécution du logiciel Google Distributed Cloud sur une solution Bare Metal exploite l'infrastructure existante de votre entreprise et vous aide à moderniser vos applications tout au long de leur cycle de vie.

Utilisation de votre propre nœud

Avec une installation logicielle uniquement sur une solution Bare Metal de Google Distributed Cloud, vous déployez des applications directement sur votre propre infrastructure matérielle, ce qui offre les meilleures performances et la meilleure flexibilité. Vous contrôlez directement l'évolutivité des applications, la sécurité et la latence du réseau. Vous bénéficiez également des avantages des applications conteneurisées via les composants GKE, y compris des fonctionnalités puissantes de niveau entreprise.

Performances améliorées et réduction des coûts

Google Distributed Cloud gère le déploiement et l'état des applications dans vos centres de données d'entreprise existants pour améliorer l'efficacité de vos opérations. Vous pouvez également exécuter des conteneurs à la périphérie du réseau afin que les applications d'analyse puissent s'exécuter avec des performances optimales.

L'utilisation de Google Distributed Cloud sur des solutions Bare Metal au lieu de machines virtuelles vous permet de gérer des conteneurs d'applications sur une grande variété de types de matériel optimisés pour les performances, tels que des GPU et des SSD. L'exécution de Google Distributed Cloud sur une solution Bare Metal permet également un accès direct des applications au matériel.

Sécurité compatible

Comme vous contrôlez l'environnement de votre nœud, vous pouvez optimiser votre réseau, votre matériel et vos applications pour répondre à vos besoins spécifiques. Vous pouvez ainsi contrôler directement la sécurité du système, sans vous soucier de la compatibilité avec les machines virtuelles et les systèmes d'exploitation.

Déploiement d'applications surveillées

Google Distributed Cloud fournit une surveillance avancée de l'état et des performances de votre environnement. Vous pouvez ajuster plus facilement l'échelle des applications tout en maintenant la fiabilité malgré les fluctuations de la charge de travail et du trafic réseau.

Vous gérez la surveillance, la journalisation et l'analyse des clusters et des charges de travail via Connect

Latence et flexibilité du réseau

Étant donné que vous gérez vos exigences en matière de réseau, celui-ci peut être optimisé pour une faible latence. Cette optimisation du réseau peut s'avérer cruciale pour les performances des analyses commerciales ou financières, et d'autres applications d'entreprise ou de périphérie du réseau.

Disponibilité élevée

Google Distributed Cloud est compatible avec plusieurs nœuds de contrôle dans un cluster. Si un nœud de plan de contrôle tombe en panne, vous pouvez toujours administrer votre environnement.

Conception et contrôle sécurisés

La sécurité de votre infrastructure peut être personnalisée en fonction de vos besoins, avec un minimum de connexions aux ressources externes. Plus important encore, le déploiement de systèmes de sécurité n'entraîne pas de complexité supplémentaire pour les VM, et vous gardez le contrôle total de l'OS lors des interactions avec les systèmes de sécurité existants.

Google Distributed Cloud fonctionne avec des connexions sécurisées légères aux API Google. Vous pouvez gérer les clusters et les applications de manière centralisée avec Connect et Cloud Monitoring. Cette centralisation permet également d'assurer le bon fonctionnement des déploiements et permet à l'assistance Google Cloud de résoudre les problèmes plus efficacement.

Vérifications préalables à l'installation

Avec Google Distributed Cloud, vos clusters GKE s'exécutent sur des systèmes Linux Open Source et d'entreprise, ainsi que sur une infrastructure matérielle minimale. Ils sont donc flexibles dans votre environnement. Il inclut également diverses vérifications préliminaires pour vous aider à garantir la réussite des configurations et des installations.

Déploiement d'applications et équilibrage de charge

Google Distributed Cloud inclut des mécanismes d'équilibrage de charge de couche 4 et de couche 7 lors de la création du cluster.

Amélioration de la fiabilité de etcd

Pour surveiller la taille et défragmenter les bases de données etcd, les plans de contrôle Google Distributed Cloud incluent un pod etcddefrag. Le pod etcddefrag récupère de l'espace de stockage à partir de bases de données etcd volumineuses et récupère etcd lorsque l'espace disque est dépassé.

Fonctionnement

Google Distributed Cloud étend Google Kubernetes Engine (GKE) pour vous permettre de créer des clusters GKE sur vos propres serveurs Linux et sur site. Vous gérez ces clusters sur site dans Google Cloud avec des clusters GKE standards et des clusters dans d'autres environnements dans le cadre d'un parc.

Les clusters GKE traditionnels s'exécutent dans Google Cloud, où le plan de contrôle et l'infrastructure réseau Kubernetes sont gérés par Google Cloud. Comme les clusters Google Distributed Cloud s'exécutent dans votre centre de données, nous fournissons des logiciels d'administration et de plan de contrôle en plus du logiciel GKE. Le logiciel exécuté dans votre centre de données est téléchargé dans le cadre des processus d'installation et de mise à niveau.

Le schéma suivant illustre le résultat simplifié d'une installation terminée:

Schéma d'un cluster d'administrateur et d'un cluster d'utilisateur
Architecture Google Distributed Cloud sur bare metal avec un cluster d'administrateur et un cluster d'utilisateur (cliquez pour agrandir)

Composants clés

Les composants suivants constituent une installation logicielle uniquement sur une solution Bare Metal de Google Distributed Cloud:

  • Le cluster d'administrateur se compose d'un ou de plusieurs nœuds de plan de contrôle. Chaque nœud est une machine physique exécutant un système d'exploitation Linux compatible. Le déploiement standard consiste en un cluster d'administrateur qui gère le cycle de vie d'un ou de plusieurs clusters d'utilisateur via la gestion des ressources Kubernetes (KRM). Chaque machine de nœud de l'installation possède sa propre adresse IP.

  • Un cluster d'utilisateur est l'endroit où s'exécutent les charges de travail qui mettent en œuvre vos applications, comme dans GKE sur Google Cloud. Chaque cluster d'utilisateur comprend au moins un nœud de plan de contrôle et un nœud de calcul.

  • Le poste de travail administrateur est une machine distincte (généralement) qui inclut les outils et les artefacts de cluster, tels que les fichiers de configuration. Les créateurs et les développeurs de clusters utilisent ces outils et artefacts pour gérer leurs clusters GKE sur site, avec les autorisations appropriées:

    • L'exécution de bmctl à partir du poste de travail administrateur vous permet de créer et de mettre à jour des clusters, et d'effectuer d'autres tâches administratives

    • L'exécution de kubectl à partir du poste de travail administrateur vous permet d'interagir avec vos clusters d'administrateur et d'utilisateur, y compris pour déployer et gérer des charges de travail.

  • L'API GKE On-Prem est l'API hébergée par Google Cloud pour la gestion du cycle de vie des clusters. Vous pouvez utiliser les clients API (console Google Cloud, Google Cloud CLI et Terraform) pour créer et gérer le cycle de vie de vos clusters sur site. Vous pouvez ainsi vous connecter au poste de travail administrateur pour gérer vos clusters à l'aide de la CLI bmctl.

  • La console fournit également une interface Web pour votre projet Google Cloud, y compris des clusters sur site. La console affiche des métriques clés sur vos clusters pour vous aider à surveiller leur état.

  • Les administrateurs et développeurs de cluster utilisent kubectl pour accéder aux plans de contrôle du cluster via des adresses IP virtuelles (IPV) spécifiées dans le cadre de la configuration du cluster. Les utilisateurs et les développeurs d'applications utilisent respectivement les adresses IP virtuelles d'entrée et de service pour accéder aux charges de travail et les exposer.

Se connecter au parc

Tous les clusters d'utilisateur (et éventuellement les clusters d'administrateur) sont membres d'un parc, c'est-à-dire d'un regroupement logique de clusters Kubernetes. Un parc permet à votre organisation de faire passer la gestion de clusters individuels à des groupes entiers de clusters, et peut aider vos équipes à adopter des bonnes pratiques semblables à celles utilisées chez Google. Vous pouvez afficher et gérer les clusters de votre parc ensemble dans la console Google Cloud, et utiliser les fonctionnalités GKE Enterprise pour parc pour vous aider à gérer, gouverner et exploiter vos charges de travail à grande échelle. Vous pouvez consulter la liste complète des fonctionnalités de parc disponibles pour les environnements sur site dans la section Options de déploiement de GKE Enterprise.

La connexion de chaque cluster de parc à Google Cloud est gérée par un agent Connect, déployé dans le cadre du processus d'installation de Google Distributed Cloud. Pour en savoir plus sur le fonctionnement de cet agent, consultez la présentation de Connect Agent.

L'appartenance à un parc permet également de gérer les tarifs de Google Distributed Cloud pour les services bare metal, comme décrit dans la section suivante.

Pour en savoir plus sur les fonctionnalités de GKE Enterprise et leur synergie, consultez la présentation technique de GKE Enterprise.

Tarification

Les clusters GKE sur site créés à l'aide de Google Distributed Cloud sont facturés par processeur virtuel dans le cadre de GKE Enterprise. Pour activer le niveau Enterprise, activez l'API Anthos dans votre projet Google Cloud.

Pour obtenir des informations complètes sur les tarifs et savoir comment contacter le service commercial, consultez la page Tarifs de Google Kubernetes Engine.

Versions

Pour en savoir plus sur les versions de Google Distributed Cloud, consultez la page Politique de compatibilité avec les versions.

Installer Google Distributed Cloud sur une solution Bare Metal

Étant donné que les clusters GKE créés à l'aide de Google Distributed Cloud s'exécutent dans votre propre infrastructure, ils sont hautement configurables. Une fois que vous avez sélectionné le modèle de déploiement qui répond aux besoins spécifiques de votre organisation et de votre cas d'utilisation, vous pouvez choisir parmi une gamme de modes d'équilibrage de charge compatibles, d'options d'adressage IP, de fonctionnalités de sécurité, d'options de connectivité, etc. La configuration d'un cluster GKE sur bare metal implique de prendre des décisions avant et pendant l'installation. Cette documentation comprend des guides pour aider votre équipe à choisir les fonctionnalités et les options qui vous conviennent. Pour vous assurer que votre installation répond aux besoins de votre organisation, consultez vos équipes chargées du réseau et des applications.