Présentation de Migrate to Containers
Utilisez Migrate to Containers pour moderniser les applications traditionnelles en les faisant passer d'instances de machines virtuelles (VM) à des conteneurs natifs, qui s'exécutent sur Google Kubernetes Engine (GKE), sur des clusters Anthos ou sur la plate-forme Cloud Run. Vous pouvez migrer des charges de travail à partir de VM s'exécutant sur VMware ou Compute Engine, ce qui vous permet de conteneuriser facilement vos charges de travail existantes. Migrate to Containers est compatible avec la modernisation des applications IBM WebSphere, JBoss, Apache, Tomcat, WordPress et Windows, ainsi qu'avec la conteneurisation d'applications basées sur Linux.
La CLI Migrate to Containers est un outil léger que vous pouvez utiliser sur votre ordinateur local pour migrer vos charges de travail afin de moderniser les composants d'application exécutés sur des VM. Elle génère des artefacts que vous pouvez déployer sur GKE ou Cloud Run. Le mode hors connexion vous permet de migrer localement vos charges de travail Linux et de travailler sur votre réseau local sans extraire de ressources d'Internet pendant l'exécution.
Vous pouvez migrer vos applications depuis les plates-formes sources compatibles vers les éléments suivants :
À propos de l'intégration de Migrate to Containers à Cloud Code
L'intégration de Migrate to Containers à Cloud Code vous permet de migrer des applications depuis des VM vers des conteneurs s'exécutant sur GKE, directement dans Visual Studio, en utilisant une machine Linux.
- L'extension est intégrée à la CLI du client de découverte Migration Center et à la CLI de Migrate to Containers.
- Elle fournit un parcours de changement de plate-forme guidé, une évaluation de l'adéquation technique et une génération automatisée d'artefacts afin de vous permettre d'exécuter des applications existantes sur GKE.
Pour en savoir plus sur l'extension Migrate to Containers, consultez la page Migrer des applications Linux vers des conteneurs.
À propos des clusters GKE et GKE Enterprise
Les clusters Google Kubernetes Engine (GKE) fournissent des services Kubernetes sécurisés et géré, avec l'autoscaling et la compatibilité multicluster. GKE vous permet de déployer, de gérer et de faire évoluer des applications en conteneur sur Kubernetes, avec la technologie Google Cloud.
- Clusters Autopilot : ce mode de fonctionnement dans GKE provisionne et gère l'infrastructure sous-jacente au cluster, y compris les nœuds et les pools de nœuds, afin de vous offrir une expérience de cluster optimisée. Pour en savoir plus sur l'utilisation du gestionnaire de services Linux simplifié, consultez la page Migrer vers des clusters Autopilot et Cloud Run.
GKE Enterprise est une plate-forme de gestion d'applications qui offre une expérience de développement et d'exploitation cohérente pour les environnements cloud et sur site. GKE Enterprise comprend un ensemble de composants principaux, parmi lesquels :
Clusters GKE : service d'orchestration et de gestion de conteneurs pour l'exécution de clusters Kubernetes dans des environnements cloud et sur site. GKE Enterprise s'appuie sur les clusters GKE sur Google Cloud ou sur Google Distributed Cloud pour gérer les installations Kubernetes dans les environnements dans lesquels vous souhaitez déployer vos applications.
Config Sync : synchronise en continu vos clusters dans un ensemble central de configurations stockées dans une source fiable, telle qu'un ou plusieurs dépôts Git.
Policy Controller : définit, automatise et applique des règles dans tous les environnements pour répondre aux exigences de sécurité et de conformité de votre organisation.
Config Controller : service hébergé permettant de provisionner et d'orchestrer des ressources Google Cloud.
Cloud Service Mesh : gère et sécurise le trafic entre les services tout en surveillant, en dépannant et en améliorant les performances des applications.
Sécurité GKE Enterprise : permet de sécuriser vos déploiements hybrides et multicloud en fournissant des contrôles cohérents dans vos environnements.
À propos de Cloud Run
Cloud Run est une plate-forme de calcul gérée qui vous permet d'exécuter des conteneurs sans état à l'aide de requêtes Web ou d'événements Pub/Sub. Le gestionnaire de services Linux simplifié vous permet de déployer vos charges de travail de conteneurs migrées sur Cloud Run.
- Pour en savoir plus sur l'utilisation du gestionnaire de services Linux simplifié, consultez la page Migrer vers des clusters Autopilot et Cloud Run.
Étape suivante
- Découvrez les avantages de la migration vers des conteneurs.