Ce document vous aide à planifier et à concevoir un chemin de migration pour passer des déploiements manuels aux déploiements automatisés en conteneurs dans Google Cloud à l'aide d'outils cloud natifs et de services gérés Google Cloud.
Ce document fait partie d'une série d'articles sur la migration vers Google Cloud:
- Migrer vers Google Cloud : premiers pas
- Migrer vers Google Cloud : évaluer et découvrir vos charges de travail
- Migrer vers Google Cloud : établir une fondation
- Migrer vers Google Cloud : transférer vos ensembles de données volumineux
- Migrer vers Google Cloud : déployer vos charges de travail
- Migrer vers Google Cloud: passer des déploiements manuels aux déploiements automatisés en conteneurs (ce document)
- Migrer vers Google Cloud : optimiser votre environnement
- Migrer vers Google Cloud : bonnes pratiques pour valider un plan de migration
- Migrer vers Google Cloud : réduire les coûts
Ce document vous sera utile si vous envisagez de moderniser vos processus de déploiement, si vous migrez de processus de déploiement manuels vers des déploiements automatisés en conteneurs, ou encore si vous souhaitez évaluer l'opportunité de cette migration et savoir en quoi elle pourrait consister.
Avant de commencer, vous devez évaluer la portée de la migration et l'état de vos processus de déploiement actuels afin de définir vos attentes et vos objectifs. Vous choisissez votre point de départ en fonction de la méthode actuellement utilisée pour déployer vos charges de travail :
- Déploiement manuel de vos charges de travail
- Déploiement de vos charges de travail à l'aide d'outils de gestion de la configuration
Passer directement d'un déploiement manuel à un déploiement entièrement automatisé et en conteneurs est une opération complexe. C'est pourquoi nous vous recommandons plutôt de suivre les étapes de migration proposées ci-dessous :
À chaque étape du processus de migration, vous suivez les phases définies dans l'article Migrer vers Google Cloud : premiers pas :
- Évaluer et découvrir vos charges de travail.
- Planifier et établir les fondations.
- Déployer vos charges de travail.
- Optimiser votre environnement et vos charges de travail.
Le diagramme suivant illustre les phases de migration de chaque étape.
Le chemin de migration que nous vous proposons est la méthode idéale. Vous pouvez toutefois vous arrêter plus tôt dans ce processus si les avantages du passage à l'étape suivante dépassent largement les coûts de votre cas particulier. Par exemple, si vous n'envisagez pas d'automatiser le déploiement de vos charges de travail, vous pouvez vous arrêter après le déploiement à l'aide des outils d'orchestration de conteneurs. Vous pourrez consulter ce document ultérieurement, dès que vous serez prêt à poursuivre le parcours.
Lorsque vous passez d'une étape de migration à l'autre, une phase de transition vous permet d'utiliser simultanément différents processus de déploiement. Ainsi, vous n'avez pas à choisir une seule option de déploiement pour l'ensemble de vos charges de travail. Par exemple, vous pourriez très bien disposer d'un environnement hybride dans lequel vous gérez votre infrastructure en appliquant le modèle IaC, tout en continuant de déployer vos charges de travail à l'aide des outils d'orchestration de conteneurs.
Passer aux outils d'orchestration de conteneurs
L'une des premières étapes permettant d'abandonner les déploiements manuels consiste à déployer vos charges de travail à l'aide d'outils d'orchestration de conteneurs. Au cours de cette étape, vous concevez et mettez en œuvre un processus de déploiement permettant de gérer les charges de travail en conteneurs à l'aide d'outils d'orchestration de conteneurs, tels que Kubernetes.
Si vos charges de travail ne sont pas déjà conteneurisées, leur conteneurisation nécessitera beaucoup d'efforts de votre part. Par ailleurs, toutes les charges de travail ne sont pas adaptées à la conteneurisation. Si vous déployez une charge de travail qui n'est prête ni pour le cloud, ni pour la conteneurisation, cette opération peut s'avérer inutile. De plus, certaines charges de travail ne sont même pas compatibles avec la conteneurisation pour des raisons techniques ou d'attribution de licence.
Évaluer et découvrir vos charges de travail
Pour définir la portée de votre migration, vous devez tout d'abord créer un inventaire des artefacts que vous produisez et déployez, ainsi que leurs dépendances à d'autres systèmes et artefacts. Pour cela, vous devez faire appel à l'expertise des équipes qui ont conçu et mis en œuvre vos processus actuels de production et de déploiement d'artefacts. Le document Migrer vers Google Cloud : évaluer et découvrir vos charges de travail explique comment évaluer votre environnement lors d'une migration et comment créer un inventaire des applications.
Pour chaque artefact, vous devez évaluer la couverture de test actuelle. Avant de passer à l'étape suivante, vous devez disposer d'une couverture de test appropriée pour tous vos artefacts. Si vous devez tester et valider manuellement chaque artefact, vous ne pouvez pas bénéficier de l'automatisation. Il est donc recommandé d'adopter une méthode qui met l'accent sur l'importance des tests, telle que le développement basé sur les tests.
Lorsque vous évaluez vos procédures, tenez compte du nombre de versions différentes de vos artefacts en production. Par exemple, si la dernière version d'un artefact dépasse de plusieurs versions celle des instances que vous devez gérer, il vous faudra concevoir un modèle compatible avec les deux versions.
Pensez également à la stratégie d'embranchement que vous utilisez pour gérer votre codebase. Elle ne constitue qu'une partie du modèle de collaboration à évaluer. En effet, l'évaluation doit également porter sur les processus de collaboration plus larges qui existent aussi bien au sein de vos équipes qu'en dehors. Par exemple, si vous adoptez une stratégie d'embranchement flexible sans toutefois l'adapter au processus de communication, l'efficacité des équipes peut se trouver réduite.
Dans cette phase d'évaluation, vous déterminez également comment procéder pour que les artefacts que vous produisez soient plus efficaces et mieux adaptés à la conteneurisation que vos processus de déploiement actuels. Une façon d'améliorer l'efficacité consiste à évaluer les éléments suivants :
- Les ressources communes : évaluez les ressources partagées par vos artefacts. Par exemple, si vous disposez de bibliothèques communes et d'autres dépendances d'environnement d'exécution, envisagez de les regrouper dans un seul environnement d'exécution.
- Les exigences concernant l'environnement d'exécution : déterminez si vous pouvez simplifier les environnements d'exécution afin de minimiser leur variance. Par exemple, si toutes vos charges de travail s'exécutent dans différents environnements d'exécution, envisagez de partir d'une base commune afin d'alléger les opérations de maintenance.
- Les composants inutiles : déterminez si vos artefacts contiennent des composants inutiles. Par exemple, il pourrait exister des utilitaires, tels que les outils de débogage et de dépannage, qui ne sont pas strictement nécessaires.
- L'injection de fichiers de configuration et de secrets : évaluez la configuration de vos artefacts en fonction des exigences de votre environnement d'exécution. Votre système d'injection de fichiers de configuration actuel n'est peut-être pas compatible avec un environnement conteneurisé.
- Les exigences de sécurité : déterminez si votre modèle de sécurité de conteneur répond à vos exigences. Le modèle de sécurité d'un environnement conteneurisé peut entrer en conflit avec une charge de travail qui nécessite des droits de super-utilisateur, d'accès direct aux ressources système ou de location unique.
- Les exigences de logique de déploiement : déterminez si vous devez mettre en œuvre des processus de déploiement avancés. Si vous devez mettre en œuvre un processus de déploiement canari, vous pourriez déterminer si l'outil d'orchestration de conteneur est compatible avec cette fonctionnalité.
Planifier et établir les fondations
À présent, vous allez provisionner et configurer l'infrastructure et les services Google Cloud pour appuyer vos processus de déploiement sur Google Cloud. Le document intitulé Migrer vers Google Cloud : établir une fondation fournit des conseils sur la façon de procéder.
Afin d'obtenir la flexibilité nécessaire pour gérer vos ressources Google Cloud, nous vous recommandons de concevoir une hiérarchie de ressources Google Cloud compatible avec plusieurs environnements, tels que le développement, les tests, et les charges de travail de production.
Lorsque vous déterminez les identités des utilisateurs et des services, vous devez disposer d'au moins un compte de service pour chaque étape du processus de déploiement. Par exemple, si votre processus exécute les étapes de production d'artefact et de gestion de l'espace de stockage de cet artefact dans un dépôt, vous devez disposer d'au moins deux comptes de service. Si vous souhaitez provisionner et configurer des environnements de développement et de test pour vos processus de déploiement, il vous sera peut-être nécessaire de créer d'autres comptes de service. Si vous disposez d'un ensemble distinct de comptes de service pour chaque environnement, vous devez dissocier les environnements de sorte qu'ils soient indépendants les uns des autres. Bien que cette configuration augmente la complexité de votre infrastructure ainsi que le travail de votre équipe chargée des opérations, elle vous permet de tester et de valider chaque modification des processus de déploiement de manière indépendante.
Vous devez également provisionner et configurer les services et l'infrastructure de sorte qu'ils soient compatibles avec vos charges de travail conteneurisées :
- Configurez un registre tel que Artifact Registry pour stocker vos images de conteneurs. Ensuite, pour isoler ce registre et les tâches de maintenance associées, configurez-le dans un projet Google Cloud dédié.
- Provisionnez et configurez les clusters Kubernetes nécessaires à la gestion de vos charges de travail. Selon votre environnement actuel et vos objectifs, vous pouvez opter pour des services tels que Google Kubernetes Engine (GKE) et GKE Enterprise.
- Provisionnez et configurez un espace de stockage persistant pour vos charges de travail avec état. Pour en savoir plus, consultez la Présentation de l'espace de stockage Google Kubernetes Engine.
Grâce aux outils d'orchestration de conteneurs, vous n'avez pas à vous soucier du provisionnement de votre infrastructure lorsque vous déployez de nouvelles charges de travail. Par exemple, vous pouvez utiliser Autopilot pour gérer automatiquement la configuration de votre cluster GKE.
Déployer vos artefacts à l'aide des outils d'orchestration de conteneurs
Selon les exigences que vous avez déterminées lors des phases d'évaluation et d'établissement des fondations de cette étape, vous pouvez exécuter les tâches suivantes :
- Conteneuriser vos charges de travail.
- Mettre en œuvre des procédures de déploiement pour gérer vos charges de travail conteneurisées.
La conteneurisation de vos charges de travail n'est pas une tâche ordinaire. Vous trouverez ci-dessous une liste générale des activités à adapter et à étendre afin de conteneuriser vos charges de travail. L'objectif consiste à répondre à vos propres besoins, par exemple, en termes de mise en réseau, de gestion du trafic, de stockage persistant, d'injection de secrets et de fichiers de configuration, ou encore de tolérance aux pannes. Ce document décrit deux activités : la création d'un ensemble d'images de conteneurs qui vous servira de base et la création d'un ensemble d'images de conteneurs pour vos charges de travail.
Tout d'abord, vous devez automatiser la production d'artefacts pour ne pas avoir à créer manuellement une image pour chaque nouveau déploiement. Le processus de compilation d'artefacts doit se déclencher automatiquement à chaque modification du code source. Ainsi, vous recevrez immédiatement un commentaire sur chaque modification.
Pour chaque image à créer, procédez comme suit :
- Créer l'image.
- Exécuter la suite de tests.
- Stocker l'image dans un registre.
Par exemple, vous pouvez vous servir de Cloud Build pour compiler vos artefacts, les tester en exécutant les suites de tests et, en cas de réussite, stocker les résultats dans Container Registry. Pour en savoir plus sur la création d'images de conteneurs, consultez la section Bonnes pratiques pour la création de conteneurs.
Vous devez également établir des règles et des conventions permettant d'identifier vos artefacts. Lorsque vous créez des images, attribuez-leur un libellé afin que chaque exécution de vos processus soit reproductible. Par exemple, une convention courante consiste à identifier les versions à l'aide de la gestion sémantique des versions. Cette méthode ajoute un tag à vos images de conteneur au moment de la production d'une version. Lorsque vous créez des images que vous devrez encore travailler avant de les publier, vous pouvez les lier, à l'aide d'un identifiant, au point dans le codebase à partir duquel votre processus les a générées. Par exemple, si vous utilisez des dépôts Git, le hachage de commit vous permet d'identifier l'image de conteneur correspondante créée lors de l'envoi du commit à la branche principale de votre dépôt.
Au cours de la phase d'évaluation de cette étape, vous avez recueilli des informations sur vos artefacts, leurs composants communs et leurs exigences d'exécution. Grâce à ces informations, vous pouvez concevoir et créer un ensemble d'images de conteneurs de base ainsi qu'un ensemble d'images supplémentaire pour vos charges de travail. Les images de base vous serviront de point de départ pour créer les images de vos charges de travail. L'ensemble des images de base devrait être étroitement contrôlé et permettre d'éviter la prolifération d'environnements d'exécution non compatibles.
Lorsque vous créez des images de conteneurs à partir d'images de base, pensez à étendre vos suites de tests à chaque image et pas seulement à leurs charges de travail. Des outils tels que InSpec, ServerSpec et RSpec vous permettront d'exécuter des suites de tests de conformité sur vos environnements d'exécution.
Lorsque vous avez conteneurisé vos charges de travail et mis en œuvre des procédures de génération automatique d'images de conteneurs, vous devez mettre en œuvre les procédures de déploiement. Au cours de la phase d'évaluation, vous concevez des procédures de déploiement enrichies en vous appuyant sur les informations recueillies concernant les exigences de logique de déploiement. Les outils d'orchestration de conteneurs vous permettent de vous concentrer sur la composition de la logique de déploiement à l'aide des mécanismes fournis plutôt que sur leur mise en œuvre manuelle.
Lorsque vous concevez et mettez en œuvre des procédures de déploiement, pensez à déterminer comment injecter des fichiers de configuration et des secrets dans vos charges de travail, et comment gérer les données des charges de travail avec état. L'injection de fichiers de configuration et de secrets est essentielle à la production d'artefacts immuables. Le déploiement d'artefacts immuables vous permet d'effectuer les opérations suivantes :
- Par exemple, vous pouvez commencer par déployer vos artefacts dans votre environnement de développement. Puis, après les avoir testés et validés, vous les déplacez vers votre environnement d'assurance qualité. Enfin, vous pouvez les déplacez vers l'environnement de production.
- Cela vous permet de minimiser le risque de rencontrer des problèmes dans vos environnements de production étant donné que le même artefact a fait l'objet de plusieurs opérations de test et de validation.
Si vous déployez des charges de travail avec état, nous vous recommandons de provisionner et de configurer un espace de stockage persistant approprié aux données. Pour ce faire, Google Cloud, vous offre plusieurs options :
- Disques persistants gérés avec GKE
- Services de base de données entièrement gérés, tels que Cloud SQL, Firestore et Spanner
- Services de stockage de fichiers tels que Filestore
- Services de magasin d'objets tels que Cloud Storage
Une fois en mesure de produire automatiquement les artefacts à déployer, vous pouvez configurer les environnements d'exécution des outils utilisés pour déployer vos charges de travail. Pour contrôler l'environnement d'exécution de ces outils, vous pouvez le configurer en tant que compilation dans Cloud Build et l'utiliser comme seul moyen de déployer les artefacts dans vos environnements. Grâce à Cloud Build, il n'est pas nécessaire que chaque opérateur configure un environnement d'exécution sur ses machines. Vous pouvez immédiatement auditer la procédure qui crée l'environnement d'exécution et son contenu en inspectant le code source de la configuration de compilation.
Optimiser votre environnement
Après avoir mis en œuvre votre processus de déploiement, vous pouvez commencer à l'optimiser à l'aide des outils d'orchestration de conteneurs. Pour en savoir plus, consultez la page Migrer vers Google Cloud : optimiser votre environnement.
L'itération d'optimisation requiert les tâches suivantes :
- Étendre le système de surveillance si nécessaire.
- Étendre la couverture de test.
- Renforcer la sécurité de votre environnement.
Vous devez étendre le système de surveillance de sorte qu'il couvre la production de nouveaux artefacts, vos procédures de déploiement, ainsi que tous vos nouveaux environnements d'exécution.
Si vous souhaitez surveiller, automatiser et codifier vos processus aussi efficacement que possible, nous vous recommandons d'élargir la couverture de vos tests. Lors de la phase d'évaluation, vous avez vérifié que vous disposez au minimum d'une couverture de test de bout en bout. Au cours de la phase d'optimisation, vous êtes en mesure d'étendre vos suites de tests afin de couvrir davantage de cas d'utilisation.
Enfin, si vous souhaitez renforcer la sécurité de vos environnements, vous pouvez configurer l'autorisation binaire afin d'autoriser le déploiement d'un ensemble d'images signées dans vos clusters. Vous pouvez également activer la fonctionnalité Artifact Analysis afin de rechercher les failles éventuelles dans les images de conteneurs stockées dans Artifact Registry.
Passer à l'automatisation des déploiements
Après être passé aux outils d'orchestration de conteneurs, vous êtes en mesure d'automatiser tous vos déploiements, y compris vos charges de travail en étendant les procédures de production et de déploiement des artefacts.
Évaluer et découvrir vos charges de travail
En vous appuyant sur l'évaluation précédente, vous pouvez maintenant vous concentrer sur les exigences de vos processus de déploiement :
- Procédures d'approbation manuelle : déterminez si vous devez prévoir des étapes manuelles dans vos procédures de déploiement.
- Unités de déploiement par heure : déterminez le nombre d'unités de déploiement par heure dont vous avez besoin.
- Facteurs déclencheurs de déploiement : identifiez les systèmes externes qui interagissent avec vos procédures de déploiement.
Si vous devez prévoir des étapes de déploiement manuel, cela ne signifie pas pour autant que votre procédure ne peut pas être automatisée. Dans ce cas, vous automatisez chaque étape de la procédure en plaçant des points d'approbation manuelle là où cela est nécessaire.
La gestion de plusieurs déploiements par jour ou par heure est plus complexe que lorsque vous effectuez quelques déploiements par mois ou par an. Toutefois, une fréquence de déploiement peu élevée risque de réduire votre agilité et votre capacité à réagir aux problèmes et à intégrer de nouvelles fonctionnalités dans vos charges de travail. C'est pourquoi il est judicieux de définir vos attentes et vos objectifs avant de concevoir et de mettre en œuvre une procédure de déploiement entièrement automatisée.
Par ailleurs, vous devez également déterminer les facteurs qui déclenchent un nouveau déploiement dans vos environnements d'exécution. Par exemple, vous pourriez déployer chaque nouvelle version dans votre environnement de développement, mais déployer une version dans votre environnement d'assurance qualité uniquement si elle répond à certains critères.
Planifier et établir les fondations
Pour étendre les fondations établies à l'étape précédente, vous allez provisionner et configurer des services compatibles avec vos procédures de déploiement automatisé.
Pour chacun de vos environnements d'exécution, configurez une infrastructure compatible avec vos procédures de déploiement. Par exemple, si vous souhaitez avoir la possibilité de tester librement les modifications apportées à vos procédures de déploiement, vous pouvez les provisionner et les configurer dans vos environnements de développement, d'assurance qualité, de préproduction et de production. D'un autre côté, si vous déployez vos environnements d'exécution dans une infrastructure unique, il sera plus facile de les gérer, mais vous perdrez en flexibilité lorsque vous devrez modifier les procédures.
Lorsque vous provisionnez les comptes de service et les rôles, pensez à isoler vos environnements et vos charges de travail les uns des autres en créant des comptes de service dédiés avec des responsabilités distinctes. Par exemple, ne réutilisez pas les mêmes comptes de service pour vos différents environnements d'exécution.
Déployer vos artefacts à l'aide de procédures entièrement automatisées
Au cours de cette phase, vous configurez vos procédures de façon à déployer vos artefacts sans aucune intervention manuelle, excepté aux étapes d'approbation.
Vous pouvez utiliser des outils tels que Cloud Deploy pour mettre en œuvre vos procédures de déploiement automatisées en fonction des conditions que vous avez répertoriées lors de la phase d'évaluation de cette étape de migration.
Pour chaque artefact donné, chaque procédure de déploiement doit exécuter les tâches suivantes :
- Déployer l'artefact dans l'environnement d'exécution cible.
- Injecter des fichiers de configuration et des secrets dans l'artefact déployé.
- Exécuter la suite de tests de conformité sur l'artefact nouvellement déployé.
- Promouvoir l'artefact dans l'environnement de production.
Assurez-vous d'intégrer à vos procédures de déploiement des interfaces permettant de déclencher de nouveaux déploiements en fonction de vos besoins.
Lorsque vous mettez en œuvre des procédures de déploiement automatisées, l'examen du code est une étape nécessaire en raison de la courte boucle de rétroaction inhérente à leur conception. Si vous déployez des modifications dans votre environnement de production sans examiner le code, vous risquez d'affecter la stabilité et la fiabilité de votre environnement de production. Une modification non examinée, non valide ou malveillante peut entraîner une interruption du service.
Optimiser votre environnement
Une fois vos procédures de déploiement automatisées, vous pouvez effectuer une autre itération d'optimisation. Cette itération requiert les tâches suivantes :
- Étendre le système de surveillance à l'infrastructure qui gère vos procédures de déploiement automatisées.
- Mettre en œuvre des modèles de déploiement plus avancés.
- Mettre en œuvre une procédure bris de glace.
Un système de surveillance efficace vous permet de planifier des optimisations supplémentaires pour votre environnement. Lorsque vous évaluez le comportement de votre environnement, vous pouvez identifier les goulots d'étranglement qui nuisent à vos performances, ainsi que d'autres problèmes tels que les accès ou les exploitations non autorisés ou accidentels. Par exemple, vous pouvez configurer votre environnement de manière à recevoir des alertes lorsque la consommation de certaines ressources atteint un seuil prédéfini.
Lorsque vous êtes en mesure d'orchestrer efficacement les conteneurs, vous pouvez mettre en œuvre des modèles de déploiement avancés en fonction de vos besoins. Par exemple, vous pouvez implémenter des déploiements bleu-vert pour améliorer la fiabilité de votre environnement et réduire l'impact des problèmes pour vos utilisateurs.
Étapes suivantes
- Optimiser votre environnement
- Découvrez comment obtenir de l'aide pour vos migrations.
- Découvrez des architectures de référence, des schémas et des bonnes pratiques concernant Google Cloud. Consultez notre Centre d'architecture cloud.