Questo tutorial mostra come eseguire la migrazione dei dati MySQL esistenti da un Persistent Disk (DP) a Hyperdisk su Google Kubernetes Engine per migliorare le prestazioni di archiviazione. Hyperdisk offre un numero di IOPS e un throughput superiori rispetto a Persistent Disk, il che può migliorare le prestazioni di MySQL riducendo la latenza per le query e le transazioni del database. Puoi utilizzare gli snapshot del disco per eseguire la migrazione dei dati a tipi di dischi diversi a seconda della compatibilità del tipo di macchina. Ad esempio, i volumi Hyperdisk sono compatibili solo con alcuni tipi di macchine di terza, quarta e successive generazioni, come N4, che non supportano i dischi permanenti. Per ulteriori informazioni, consulta le serie di macchine disponibili.
Per dimostrare la migrazione da Persistent Disk a Hyperdisk, questo tutorial utilizza il database Sakila per fornire un set di dati di esempio. Sakila è un database di esempio fornito da MySQL che puoi utilizzare come schema per tutorial ed esempi. Rappresenta un negozio di noleggio di DVD fittizio e include tabelle per film, attori, clienti e noleggi.
Questa guida è destinata agli specialisti e agli amministratori dell'archiviazione che creano e allocano spazio di archiviazione e gestiscono la sicurezza e l'accesso ai dati. Per scoprire di più sui ruoli comuni e sulle attività di esempio a cui facciamo riferimento nei contenuti di Google Cloud , consulta Ruoli utente e attività comuni di GKE.
Architettura di deployment
Il seguente diagramma illustra la procedura di migrazione da un Persistent Disk a un Hyperdisk.
- Un'applicazione MySQL viene eseguita su un pool di nodi GKE con tipi di macchina N2, memorizzando i dati su un disco permanente SSD.
- Per garantire la coerenza dei dati, l'applicazione viene ridimensionata per impedire nuove scritture.
- Viene creato uno snapshot del Persistent Disk, che funge da backup point-in-time completo dei dati.
- Viene eseguito il provisioning di un nuovo Hyperdisk dallo snapshot e viene eseguito il deployment di una nuova istanza MySQL su un pool di nodi N4 separato e compatibile con Hyperdisk. Questa nuova istanza viene collegata all'Hyperdisk appena creato, completando la migrazione all'archiviazione con prestazioni più elevate.
Obiettivi
In questo tutorial imparerai a:
- Esegui il deployment di un cluster MySQL.
- Carica un set di dati di test.
- Crea uno snapshot dei tuoi dati.
- Crea un Hyperdisk dallo snapshot.
- Avvia un nuovo cluster MySQL in un pool di nodi di tipo di macchina N4 abilitato per Hyperdisk.
- Verifica l'integrità dei dati per confermare la riuscita della migrazione.
Costi
In questo documento vengono utilizzati i seguenti componenti fatturabili di Google Cloud:
- GKE
- Compute Engine, which includes:
- Storage capacity provisioned for both Persistent Disk and Hyperdisk.
- Storage costs for the snapshots.
Per generare una stima dei costi in base all'utilizzo previsto,
utilizza il calcolatore prezzi.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Compute Engine, GKE, Identity and Access Management Service Account Credentials APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Compute Engine, GKE, Identity and Access Management Service Account Credentials APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
Make sure that you have the following role or roles on the project: roles/container.admin, roles/iam.serviceAccountAdmin, roles/compute.admin
Check for the roles
-
In the Google Cloud console, go to the IAM page.
Go to IAM - Select the project.
-
In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.
- For all rows that specify or include you, check the Role column to see whether the list of roles includes the required roles.
Grant the roles
-
In the Google Cloud console, go to the IAM page.
Vai a IAM - Seleziona il progetto.
- Fai clic su Concedi l'accesso.
-
Nel campo Nuove entità, inserisci il tuo identificatore dell'utente. In genere si tratta dell'indirizzo email di un Account Google.
- Nell'elenco Seleziona un ruolo, seleziona un ruolo.
- Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungi ogni ruolo aggiuntivo.
- Fai clic su Salva.
-
In the Google Cloud console, activate Cloud Shell.
Viene avviata una sessione di Cloud Shell e viene visualizzato un prompt della riga di comando. L'inizializzazione della sessione può richiedere alcuni secondi.
- Imposta il progetto predefinito:
gcloud config set project PROJECT_ID
Sostituisci
PROJECT_ID
con l'ID progetto. In Cloud Shell, imposta le variabili di ambiente per il progetto, la località e il prefisso del cluster.
export PROJECT_ID=PROJECT_ID export EMAIL_ADDRESS=EMAIL_ADDRESS export KUBERNETES_CLUSTER_PREFIX=offline-hyperdisk-migration export LOCATION=us-central1-a
Sostituisci quanto segue:
PROJECT_ID
: il tuo Google Cloud ID progetto.EMAIL_ADDRESS
: il tuo indirizzo email.LOCATION
: la zona in cui vuoi creare le risorse di deployment. Ai fini di questo tutorial, utilizza la zonaus-central1-a
.
Clona il repository del codice campione da GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Vai alla directory
offline-hyperdisk-migration
per iniziare a creare risorse di deployment:cd kubernetes-engine-samples/databases/offline-hyperdisk-migration
Crea un cluster GKE di zona:
gcloud container clusters create ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --location ${LOCATION} \ --node-locations ${LOCATION} \ --shielded-secure-boot \ --shielded-integrity-monitoring \ --machine-type "e2-micro" \ --num-nodes "1"
Aggiungi un pool di nodi con un tipo di macchina N2 per il deployment iniziale di MySQL:
gcloud container node-pools create regular-pool \ --cluster ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --machine-type n2-standard-4 \ --location ${LOCATION} \ --num-nodes 1
Aggiungi un pool di nodi con un tipo di macchina N4 su Hyperdisk in cui verrà eseguita la migrazione e l'esecuzione del deployment di MySQL:
gcloud container node-pools create hyperdisk-pool \ --cluster ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --machine-type n4-standard-4 \ --location ${LOCATION} \ --num-nodes 1
Connettiti al cluster:
gcloud container clusters get-credentials ${KUBERNETES_CLUSTER_PREFIX}-cluster --location ${LOCATION}
Crea e applica un
StorageClass
per Hyperdisk. QuestoStorageClass
verrà utilizzato più avanti nel tutorial.kubectl apply -f manifests/01-storage-class/storage-class-hdb.yaml
Crea ed esegui il deployment di un'istanza MySQL che includa l'affinità dei nodi per garantire che i pod vengano pianificati sui nodi
regular-pool
e che venga eseguito il provisioning di un volume SSD del disco permanente.kubectl apply -f manifests/02-mysql/mysql-deployment.yaml
Questo manifest crea un deployment e un servizio MySQL, con un Persistent Disk di cui viene eseguito il provisioning dinamico per l'archiviazione dei dati. La password per l'utente
root
èmigration
.Esegui il deployment di un pod client MySQL per caricare i dati e verificare la migrazione dei dati:
kubectl apply -f manifests/02-mysql/mysql-client.yaml kubectl wait pods mysql-client --for condition=Ready --timeout=300s
Connettiti al pod client:
kubectl exec -it mysql-client -- bash
Dalla shell del pod client, scarica e importa il set di dati di esempio Sakila:
# Download the dataset curl --output dataset.tgz "https://downloads.mysql.com/docs/sakila-db.tar.gz" # Extract the dataset tar -xvzf dataset.tgz -C /home/mysql # Import the dataset into MySQL (the password is "migration"). mysql -u root -h regular-mysql.default -p SOURCE /sakila-db/sakila-schema.sql; SOURCE /sakila-db/sakila-data.sql;
Verifica che i dati siano stati importati:
USE sakila; SELECT table_name, table_rows FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_SCHEMA = 'sakila';
L'output mostra un elenco di tabelle con il conteggio delle righe.
| TABLE_NAME | TABLE_ROWS | +----------------------------+------------+ | actor | 200 | | actor_info | NULL | | address | 603 | | category | 16 | | city | 600 | | country | 109 | | customer | 599 | | customer_list | NULL | | film | 1000 | | film_actor | 5462 | | film_category | 1000 | | film_list | NULL | | film_text | 1000 | | inventory | 4581 | | language | 6 | | nicer_but_slower_film_list | NULL | | payment | 16086 | | rental | 16419 | | sales_by_film_category | NULL | | sales_by_store | NULL | | staff | 2 | | staff_list | NULL | | store | 2 | +----------------------------+------------+ 23 rows in set (0.01 sec)
Esci dalla sessione
mysql
:exit;
Esci dalla shell del pod client:
exit
Recupera il nome del PersistentVolume (PV) creato per MySQL e archivialo in una variabile di ambiente:
export PV_NAME=$(kubectl get pvc mysql-pv-claim -o jsonpath='{.spec.volumeName}')
Anche se puoi creare snapshot dai dischi senza scollegarli dai carichi di lavoro, per garantire l'integrità dei dati per MySQL devi interrompere qualsiasi nuova scrittura sul disco durante la creazione dello snapshot. Ridimensiona il deployment MySQL a
0
repliche per interrompere le scritture:kubectl scale deployment regular-mysql --replicas=0
Crea uno snapshot dal Persistent Disk esistente:
gcloud compute disks snapshot ${PV_NAME} --location=${LOCATION} --snapshot-name=original-snapshot --description="snapshot taken from pd-ssd"
Crea un nuovo volume Hyperdisk denominato
mysql-recovery
dallo snapshot:gcloud compute disks create mysql-recovery --project=${PROJECT_ID} \ --type=hyperdisk-balanced \ --size=150GB --location=${LOCATION} \ --source-snapshot=projects/${PROJECT_ID}/global/snapshots/original-snapshot
Aggiorna il file manifest per il PV ripristinato con l'ID progetto:
sed -i "s/PRJCTID/$PROJECT_ID/g" manifests/02-mysql/restore_pv.yaml
Crea PersistentVolume (PVC) e PersistentVolumeClaim dal nuovo Hyperdisk:
kubectl apply -f manifests/02-mysql/restore_pv.yaml
Esegui il deployment della nuova istanza MySQL:
kubectl apply -f manifests/02-mysql/recovery_mysql_deployment.yaml
Per verificare l'integrità dei dati, connettiti di nuovo al pod client MySQL:
kubectl exec -it mysql-client -- bash
All'interno del pod client, connettiti al nuovo database MySQL (
recovered-mysql.default
) e verifica i dati. La password èmigration
.mysql -u root -h recovered-mysql.default -p USE sakila; SELECT table_name, table_rows FROM INFORMATION_SCHEMA.TABLES WHERE TABLE_SCHEMA = 'sakila';
I dati devono essere gli stessi dell'istanza MySQL originale sul volume Persistent Disk.
Esci dalla sessione
mysql
:exit;
Esci dalla shell del pod client:
exit
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
Imposta le variabili di ambiente per la pulizia e recupera il nome del volume di Persistent Disk creato da PersistentVolumeClaim
mysql-pv-claim
:export PROJECT_ID=PROJECT_ID export KUBERNETES_CLUSTER_PREFIX=offline-hyperdisk-migration export location=us-central1-a export PV_NAME=$(kubectl get pvc mysql-pv-claim -o jsonpath='{.spec.volumeName}')
Sostituisci
PROJECT_ID
con l'ID progetto.Elimina lo snapshot:
gcloud compute snapshots delete original-snapshot --quiet
Elimina il cluster GKE:
gcloud container clusters delete ${KUBERNETES_CLUSTER_PREFIX}-cluster --location=${LOCATION} --quiet
Elimina i volumi Persistent Disk e Hyperdisk:
gcloud compute disks delete ${PV_NAME} --location=${LOCATION} --quiet gcloud compute disks delete mysql-recovery --location=${LOCATION} --quiet
- Esamina altri esempi di codice nel repository GitHub di esempi di GKE.
- Scopri come scalare le prestazioni di archiviazione con i volumi Hyperdisk.
- Scopri di più sull'utilizzo del driver CSI per il disco permanente di Compute Engine per la gestione dei volumi Persistent Disk e Hyperdisk.
- Esplora architetture, diagrammi e best practice di riferimento su Google Cloud. Consulta il nostro Cloud Architecture Center.
Configura Cloud Shell
Prepara l'ambiente
Crea il cluster GKE e i node pool
Questo tutorial utilizza un cluster di zona per semplicità, perché i volumi Hyperdisk sono risorse di zona e sono accessibili solo all'interno di una singola zona.
Esegui il deployment di MySQL sul Persistent Disk
In questa sezione, esegui il deployment di un'istanza MySQL che utilizza un Persistent Disk per l'archiviazione e caricala con dati di esempio.
Esegui la migrazione dei dati a un volume Hyperdisk
Ora hai un workload MySQL con dati archiviati su un volume SSD Persistent Disk. Questa sezione descrive come eseguire la migrazione di questi dati a un volume Hyperdisk utilizzando uno snapshot. Questo approccio di migrazione conserva anche il volume Persistent Disk originale, il che ti consente di eseguire il rollback all'utilizzo dell'istanza MySQL originale, se necessario.
Verificare la migrazione dei dati
Esegui il deployment di una nuova istanza MySQL che utilizza il volume Hyperdisk appena creato. Questo pod verrà pianificato sul pool di nodi
hyperdisk-pool
, costituito da nodi N4.Esegui la pulizia
Per evitare che al tuo Account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.
Elimina il progetto
Elimina singole risorse
Se hai utilizzato un progetto esistente e non vuoi eliminarlo, elimina le singole risorse:
Passaggi successivi
-