Ce document fournit un guide par étapes pour déployer une charge de travail basée sur une machine virtuelle (VM) dans des clusters Anthos sur bare metal à l'aide de l'environnement d'exécution des VM Anthos. La charge de travail utilisée dans ce guide est l'exemple d'application de point de vente. Cette application représente un terminal de point de vente type qui s'exécute sur le matériel sur site dans un magasin.
Dans ce document, vous migrez cette application depuis une VM vers un clusters Anthos sur bare metal et accédez à l'interface Web de l'application. Pour migrer une VM existante vers le cluster, vous devez d'abord créer une image disque de cette VM. Ensuite, l'image doit être hébergée dans un dépôt auquel le cluster peut accéder. Enfin, l'URL de cette image peut être utilisée pour créer la VM. L'environnement d'exécution des VM Anthos s'attend à ce que les images soient au format qcow2
. Si vous fournissez un autre type d'image, il est automatiquement converti au format qcow2
. Pour éviter les répétitions et permettre la réutilisation, vous pouvez convertir une image de disque virtuel et héberger l'image qcow2
.
Ce document utilise une image préparée d'une instance de VM Compute Engine dans laquelle la charge de travail s'exécute en tant que service systemd. Suivez la même procédure pour déployer votre propre application.
Objectifs
Avant de commencer
Pour remplir ce document, vous avez besoin des ressources suivantes:
- L'accès à un cluster Anthos sur solution Bare Metal version 1.12.0 ou ultérieure créé en suivant le guide Exécuter des clusters Anthos sur solution Bare Metal sur des VM Compute Engine avec l'équilibreur de charge manuel Ce document configure les ressources réseau afin que vous puissiez accéder à la charge de travail exécutée dans la VM via un navigateur. Si vous n'avez pas besoin de ce comportement, vous pouvez suivre ce document en utilisant n'importe quel clusters Anthos sur bare metal.
- Un poste de travail répondant aux exigences suivantes :
Activez l'environnement d'exécution des VM Anthos et installez le plug-in virtctl
.
La définition de ressource personnalisée (CRD) de l'environnement d'exécution des VM Anthos fait partie de tous les clusters Anthos sur bare metal depuis la version 1.10. Une instance de la ressource personnalisée VMRuntime
est déjà créée lors de l'installation. Cependant, il est désactivé par défaut.
Activez l'environnement d'exécution des VM Anthos:
sudo bmctl enable vmruntime --kubeconfig KUBECONFIG_PATH
- KUBECONFIG_PATH: chemin d'accès au fichier de configuration Kubernetes du cluster d'utilisateur Anthos
Vérifiez que
VMRuntime
est activé:kubectl wait --for=jsonpath='{.status.ready}'=true vmruntime vmruntime
La préparation de
VMRuntime
peut prendre quelques minutes. Si ce n'est pas le cas, vérifiez plusieurs fois avec de courts retards. L'exemple de résultat suivant indique que la ressourceVMRuntime
est prête:vmruntime.vm.cluster.gke.io/vmruntime condition met
Installez le plug-in virtctl pour
kubectl
:sudo -E bmctl install virtctl
L'exemple de résultat suivant montre que le processus d'installation du plug-in
virtctl
est terminé:Please check the logs at bmctl-workspace/log/install-virtctl-20220831-182135/install-virtctl.log [2022-08-31 18:21:35+0000] Install virtctl succeeded
Vérifiez l'installation du plug-in
virtctl
:kubectl virt
L'exemple de résultat suivant montre que le plug-in
virtctl
peut être utilisé aveckubectl
:Available Commands: addvolume add a volume to a running VM completion generate the autocompletion script for the specified shell config Config subcommands. console Connect to a console of a virtual machine instance. create Create subcommands. delete Delete subcommands. ...
Déployer la charge de travail basée sur une VM
Lorsque vous déployez une VM dans des clusters Anthos sur bare metal, l'environnement d'exécution des VM Anthos attend une image de VM. Cette image sert de disque de démarrage à la VM déployée.
Dans ce tutoriel, vous allez migrer une charge de travail basée sur des VM Compute Engine vers un clusters Anthos sur bare metal. Cette VM Compute Engine a été créée et l'exemple d'application de point de vente (PoS) a été configuré pour s'exécuter en tant que service systemd. Une image disque de cette VM et la charge de travail de l'application PoS ont été créées dans Google Cloud. Cette image a ensuite été exportée dans un bucket Cloud Storage en tant qu'image qcow2
.
Vous allez utiliser cette image qcow2
préparée lors des étapes suivantes.
Le code source de ce document est disponible dans le dépôt GitHub anthos-samples. Vous allez utiliser les ressources de ce dépôt pour effectuer les étapes suivantes.
Déployez un
StatefulSet
MySQL. L'application de point de vente s'attend à se connecter à une base de données MySQL pour stocker des informations sur l'inventaire et les paiements. Le dépôt du point de vente comporte un exemple de fichier manifeste qui déploie un fichierStatefulSet
MySQL, configure un fichierConfigMap
associé et un fichierService
Kubernetes.ConfigMap
définit les identifiants de l'instance MySQL, qui sont les mêmes identifiants transmis dans l'application de point de vente.kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/point-of-sale/main/k8-manifests/common/mysql-db.yaml
Déployez la charge de travail de VM à l'aide de l'image
qcow2
préparée:kubectl virt create vm pos-vm \ --boot-disk-size=80Gi \ --memory=4Gi \ --vcpu=2 \ --image=https://storage.googleapis.com/pos-vm-images/pos-vm.qcow2
Cette commande crée un fichier YAML nommé d'après la VM (
google-virtctl/pos-vm.yaml
). Vous pouvez inspecter le fichier pour afficher la définition deVirtualMachine
et deVirtualMachineDisk
. Au lieu d'utiliser le plug-invirtctl
, vous auriez pu déployer la charge de travail de VM à l'aide des définitions du modèle de ressource Kubernetes (KRM), comme indiqué dans le fichier YAML créé.Lorsque la commande s'exécute correctement, elle produit un résultat semblable à l'exemple suivant qui explique les différentes ressources créées:
Constructing manifest for vm "pos-vm": Manifest for vm "pos-vm" is saved to /home/tfadmin/google-virtctl/pos-vm.yaml Applying manifest for vm "pos-vm" Created gvm "pos-vm"
Vérifiez l'état de la création de la VM.
La ressource
VirtualMachine
est identifiée par la ressourcevm.cluster.gke.io/v1.VirtualMachine
dans l'environnement d'exécution des VM Anthos. Dans son format court, il s'agit degvm
.Lorsque vous créez une VM, les deux ressources suivantes sont créées:
- Un VirtualMachineDisk est un disque persistant dans lequel le contenu de l'image de VM est importé.
- Une machine virtuelle est l'instance de VM elle-même. Le Volume de données est installé dans la machine virtuelle avant le démarrage de la VM.
Vérifiez l'état du VirtualMachineDisk. VirtualMachineDisk crée en interne une ressource
DataVolume
. L'image de VM est importée dans le volume de données installé dans la VM:kubectl get datavolume
L'exemple de résultat suivant montre le début de l'importation d'image:
NAME PHASE PROGRESS RESTARTS AGE pos-vm-boot-dv ImportScheduled N/A 8s
Vérifiez l'état du
VirtualMachine
.VirtualMachine
est à l'étatProvisioning
jusqu'à ce queDataVolume
soit importé complètement:kubectl get gvm
L'exemple de résultat suivant montre le
VirtualMachine
en cours de provisionnement:NAME STATUS AGE IP pos-vm Provisioning 1m
Attendez que l'image de VM soit entièrement importée dans
DataVolume
. Continuez à surveiller la progression pendant l'importation de l'image:kubectl get datavolume -w
L'exemple de résultat suivant montre l'image disque en cours d'importation:
NAME PHASE PROGRESS RESTARTS AGE pos-vm-boot-dv ImportInProgress 0.00% 14s ... ... pos-vm-boot-dv ImportInProgress 0.00% 31s pos-vm-boot-dv ImportInProgress 1.02% 33s pos-vm-boot-dv ImportInProgress 1.02% 35s ...
Une fois l'importation terminée et le fichier
DataVolume
créé, l'exemple de sortie suivant affiche lePHASE
deSucceeded
:kubectl get datavolume
NAME PHASE PROGRESS RESTARTS AGE pos-vm-boot-dv Succeeded 100.0% 14m18s
Vérifiez que
VirtualMachine
a bien été créé:kubectl get gvm
Si la création a réussi,
STATUS
afficheRUNNING
, comme illustré dans l'exemple suivant, avec l'adresse IP de la VM:NAME STATUS AGE IP pos-vm Running 40m 192.168.3.250
Se connecter à la VM et vérifier l'état de l'application
L'image utilisée pour la VM inclut un exemple d'application de point de vente. L'application est configurée pour démarrer automatiquement au démarrage en tant que service systemd. Vous pouvez voir les fichiers de configuration des services systemd dans le répertoire pos-systemd-services.
Connectez-vous à la console de la VM. Exécutez la commande suivante et appuyez sur Entrée après avoir vu le message
Successfully connected to pos-vm…
:kubectl virt console pos-vm
Cette commande produit l'exemple de résultat suivant, qui vous invite à saisir les informations de connexion:
Successfully connected to pos-vm console. The escape sequence is ^] pos-from-public-image login:
Utilisez le compte utilisateur et le mot de passe suivants. Ce compte a été configuré dans la VM d'origine à partir de laquelle l'image de la machine virtuelle d'exécution de la VM Anthos a été créée.
- Nom d'utilisateur de connexion:
abmuser
- Mot de passe :
abmworks
- Nom d'utilisateur de connexion:
Vérifiez l'état des services de l'application de point de vente. L'application de point de vente comprend trois services: l'API, Inventory et Payments. Ces services s'exécutent tous en tant que services système.
Les trois services se connectent tous les uns aux autres via localhost. Cependant, l'application se connecte à la base de données MySQL à l'aide d'un service Kubernetes mysql-db créé à l'étape précédente. Ce comportement signifie que la VM est automatiquement connectée au même réseau que
Pods
etServices
, ce qui permet une communication fluide entre les charges de travail de VM et d'autres applications conteneurisées. Aucune action supplémentaire de votre part n'est requise pour rendre l'instanceServices
Kubernetes accessible à partir des VM déployées à l'aide de l'environnement d'exécution des VM Anthos.sudo systemctl status pos*
L'exemple de résultat suivant indique l'état des trois services et du service système racine
pos.service
:● pos_payments.service - Payments service of the Point of Sale Application Loaded: loaded (/etc/systemd/system/pos_payments.service; enabled; vendor > Active: active (running) since Tue 2022-06-21 18:55:30 UTC; 1h 10min ago Main PID: 750 (payments.sh) Tasks: 27 (limit: 4664) Memory: 295.1M CGroup: /system.slice/pos_payments.service ├─750 /bin/sh /pos/scripts/payments.sh └─760 java -jar /pos/jars/payments.jar --server.port=8083 ● pos_inventory.service - Inventory service of the Point of Sale Application Loaded: loaded (/etc/systemd/system/pos_inventory.service; enabled; vendor> Active: active (running) since Tue 2022-06-21 18:55:30 UTC; 1h 10min ago Main PID: 749 (inventory.sh) Tasks: 27 (limit: 4664) Memory: 272.6M CGroup: /system.slice/pos_inventory.service ├─749 /bin/sh /pos/scripts/inventory.sh └─759 java -jar /pos/jars/inventory.jar --server.port=8082 ● pos.service - Point of Sale Application Loaded: loaded (/etc/systemd/system/pos.service; enabled; vendor preset: e> Active: active (exited) since Tue 2022-06-21 18:55:30 UTC; 1h 10min ago Main PID: 743 (code=exited, status=0/SUCCESS) Tasks: 0 (limit: 4664) Memory: 0B CGroup: /system.slice/pos.service Jun 21 18:55:30 pos-vm systemd[1]: Starting Point of Sale Application... Jun 21 18:55:30 pos-vm systemd[1]: Finished Point of Sale Application. ● pos_apiserver.service - API Server of the Point of Sale Application Loaded: loaded (/etc/systemd/system/pos_apiserver.service; enabled; vendor> Active: active (running) since Tue 2022-06-21 18:55:31 UTC; 1h 10min ago Main PID: 751 (api-server.sh) Tasks: 26 (limit: 4664) Memory: 203.1M CGroup: /system.slice/pos_apiserver.service ├─751 /bin/sh /pos/scripts/api-server.sh └─755 java -jar /pos/jars/api-server.jar --server.port=8081
Quittez la VM. Pour quitter la connexion à la console, utilisez la séquence d'échappement
^]
en appuyant surCtrl + ]
.
Accéder à la charge de travail basée sur une VM
Si votre cluster a été configuré en suivant le guide Exécuter des clusters Anthos sur bare metal sur des VM Compute Engine avec l'équilibreur de charge manuel, il dispose d'une ressource Ingress
appelée pos-ingress
. Cette ressource achemine le trafic de l'adresse IP publique de l'équilibreur de charge d'entrée vers le service de serveur d'API de l'exemple d'application de point de vente.
Si votre cluster ne dispose pas de cette ressource
Ingress
, créez-la en appliquant le fichier manifeste suivant:kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/anthos-samples/main/anthos-bm-gcp-terraform/resources/manifests/pos-ingress.yaml
Créez un
Service
Kubernetes qui achemine le trafic vers la VM. La ressourceIngress
achemine le trafic vers ceService
:kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/anthos-samples/main/anthos-vmruntime/pos-service.yaml
L'exemple de résultat suivant confirme la création d'un service:
service/api-server-svc created
Obtenez l'adresse IP publique de l'équilibreur de charge
Ingress
. L'équilibreur de chargeIngress
achemine le trafic en fonction des règles de ressourcesIngress
. Vous disposez déjà d'une règlepos-ingress
pour transférer les requêtes vers le serveur d'APIService
. CeService
transmet les requêtes à la VM:INGRESS_IP=$(kubectl get ingress/pos-ingress -o jsonpath='{.status.loadBalancer.ingress[0].ip}') echo $INGRESS_IP
L'exemple de résultat suivant montre l'adresse IP de l'équilibreur de charge
Ingress
:172.29.249.159 # you might have a different IP address
Accédez à l'application en utilisant l'adresse IP de l'équilibreur de charge d'entrée dans un navigateur. L'exemple de captures d'écran suivant montre un point de vente simple avec deux éléments. Vous pouvez cliquer plusieurs fois sur les articles si vous souhaitez en commander plusieurs, puis cliquer sur le bouton Payer. Cette expérience montre que vous avez réussi à déployer une charge de travail traditionnelle basée sur des VM dans un cluster Anthos à l'aide de l'environnement d'exécution des VM Anthos.
Effectuer un nettoyage
Vous pouvez supprimer toutes les ressources créées dans ce tutoriel ou ne supprimer que la VM et conserver les ressources réutilisables. La page Supprimer une VM dans des clusters Anthos sur solution Bare Metal détaille les options disponibles.
Supprimer tout
Supprimez l'environnement d'exécution des VM Anthos
VirtualMachine
ainsi que toutes les ressources:kubectl virt delete vm pos-vm --all
L'exemple de résultat suivant confirme la suppression:
vm "pos-vm" used the following resources: gvm: pos-vm VirtualMachineDisk: pos-vm-boot-dv Start deleting the resources: Deleted gvm "pos-vm". Deleted VirtualMachineDisk "pos-vm-boot-dv".
Supprimer uniquement la VM
Si vous supprimez uniquement la VM, la
VirtualMachineDisk
est créée. Cela permet de réutiliser cette image de VM et de gagner du temps sur l'importation de l'image lors de la création d'une VM.kubectl virt delete vm pos-vm
L'exemple de résultat suivant confirme la suppression:
vm "pos-vm" used the following resources: gvm: pos-vm VirtualMachineDisk: pos-vm-boot-dv Start deleting the resources: Deleted gvm "pos-vm".
Étapes suivantes
- La VM d'origine utilisée dans ce guide est une instance Compute Engine qui exécute Ubuntu 20.04 LTS. L'image de cette VM est accessible publiquement via le bucket Cloud Storage pos-vm-images. Pour en savoir plus sur la configuration de la VM et la création de son image, consultez les instructions du dépôt du point de vente.
- Lorsque vous créez une VM dans un cluster Anthos à l'aide de la commande
kubectl virt create vm pos-vm
, un fichier YAML nommé d'après la VM (google-virtctl/pos-vm.yaml
) est créé. Vous pouvez inspecter le fichier pour afficher la définition deVirtualMachine
et deVirtualMachineDisk
. Au lieu d'utiliser le plug-invirtctl
, vous pouvez déployer une VM à l'aide des définitions KRM, comme indiqué dans le fichier YAML créé.