Questa guida mostra come eseguire il deployment di un cluster di database vettoriale Qdrant su Google Kubernetes Engine (GKE).
I database vettoriali sono datastore specificamente progettati per gestire e cercare in grandi raccolte di vettori ad alta dimensione. Questi vettori rappresentano dati come testo, immagini, audio, video o qualsiasi dato che può essere codificato numericamente. A differenza dei database tradizionali, che si basano sulle corrispondenze esatte, quelli vettoriali sono specializzati nella ricerca di elementi simili o nell'identificazione di pattern all'interno di set di dati di grandi dimensioni. Queste caratteristiche fanno di Qdrant la scelta ideale per numerose applicazioni, tra cui la corrispondenza di rete neurale o basata su semantica, la ricerca sfaccettata e altro ancora. Qdrant non funziona solo come database vettoriale, ma anche come motore di ricerca di somiglianze vettoriali.
Questo tutorial è rivolto ad amministratori e architetti di piattaforme cloud, tecnici ML e professionisti MLOps (DevOps) interessati al deployment di cluster di database Qdrant su GKE.
Vantaggi
Qdrant offre i seguenti vantaggi:
- Ampia gamma di librerie per vari linguaggi di programmazione e API aperte per l'integrazione con altri servizi.
- Scalabilità orizzontale e supporto per sharding e replica che semplifica la scalabilità e la disponibilità elevata.
- Supporto per container e Kubernetes che consente il deployment e la gestione nei moderni ambienti cloud-native.
- Payload flessibili con filtri avanzati per personalizzare con precisione i criteri di ricerca.
- Diverse opzioni di quantizzazione e altre ottimizzazioni per ridurre i costi dell'infrastruttura e migliorare le prestazioni.
Obiettivi
In questo tutorial imparerai a:
- Pianifica ed esegui il deployment dell'infrastruttura GKE per Qdrant.
- Esegui il deployment dell'operatore StatefulHA per garantire l'alta disponibilità di Qdrant.
- Eseguire il deployment e configurare il cluster Qdrant.
- Caricare un set di dati demo ed eseguire una semplice query di ricerca.
- Raccogli le metriche ed esegui una dashboard.
Architettura di deployment
Questa architettura configura un cluster GKE scalabile a tolleranza di errore per Qdrant in diverse zone di disponibilità, garantendo uptime e disponibilità con aggiornamenti in sequenza e interruzioni minime. Include l'uso dell'operatore StatefulHA per una gestione efficiente del failover. Per ulteriori informazioni, consulta Cluster a livello di regione.
Diagramma dell'architettura
Il seguente diagramma mostra un cluster Qdrant in esecuzione su più nodi e zone in un cluster GKE:
In questa architettura, il deployment di Qdrant StatefulSet
viene eseguito in tre nodi in tre zone diverse.
- Puoi controllare il modo in cui GKE distribuisce i pod tra i nodi configurando le regole di affinità e i vincoli di diffusione della topologia richiesti nel file dei valori del grafico Helm.
- Se si verifica un errore in una zona, GKE ripianifica i pod su nuovi nodi in base alla configurazione consigliata.
Per la persistenza dei dati, l'architettura di questo tutorial ha le seguenti caratteristiche:
- Utilizza dischi SSD a livello di regione (personalizzati
regional-pd
StorageClass) per la memorizzazione dei dati. Ti consigliamo di utilizzare dischi SSD regionali per i database a causa della bassa latenza e del numero elevato di IOPS. - Tutti i dati del disco vengono replicati tra le zone primarie e secondarie nella regione, aumentando la tolleranza ai potenziali errori delle zone.
Costi
In questo documento vengono utilizzati i seguenti componenti fatturabili di Google Cloud:
Per generare una stima dei costi in base all'utilizzo previsto,
utilizza il Calcolatore prezzi.
Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.
Prima di iniziare
In questo tutorial utilizzerai Cloud Shell per eseguire i comandi. Cloud Shell è un ambiente shell per la gestione delle risorse ospitate su Google Cloud. È preinstallato gli strumenti a riga di comando Google Cloud CLI, kubectl, Helm e Terraform. Se non utilizzi Cloud Shell, devi installare Google Cloud CLI.
- Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
- Installa Google Cloud CLI.
-
Per initialize gcloud CLI, esegui questo comando:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Abilita le API Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE.
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com - Installa Google Cloud CLI.
-
Per initialize gcloud CLI, esegui questo comando:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.
-
Abilita le API Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE.
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com -
Concedi i ruoli al tuo Account Google. Esegui questo comando una volta per ciascuno dei seguenti ruoli IAM:
role/storage.objectViewer, roles/container.admin, roles/iam.serviceAccountAdmin, roles/compute.admin, roles/gkebackup.admin, roles/monitoring.viewer
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:EMAIL_ADDRESS" --role=ROLE
- Sostituisci
PROJECT_ID
con l'ID progetto. - Sostituisci
EMAIL_ADDRESS
con il tuo indirizzo email. - Sostituisci
ROLE
con ogni singolo ruolo.
- Sostituisci
Configura l'ambiente
Per configurare il tuo ambiente con Cloud Shell, segui questi passaggi:
Imposta le variabili di ambiente per il progetto, la regione e un prefisso della risorsa del cluster Kubernetes:
Ai fini di questo tutorial, utilizza la regione
us-central1
per creare le risorse di deployment.export PROJECT_ID=PROJECT_ID export KUBERNETES_CLUSTER_PREFIX=qdrant export REGION=us-central1
- Sostituisci
PROJECT_ID
con l'ID progetto Google Cloud.
- Sostituisci
Controlla la versione di Helm:
helm version
Aggiorna la versione se è precedente alla 3.13:
curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
Clona il repository di codice campione da GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Passa alla directory
qdrant
per iniziare a creare risorse di deployment:cd kubernetes-engine-samples/databases/qdrant
Crea l'infrastruttura del cluster
Questa sezione comporta l'esecuzione di uno script Terraform per creare un cluster GKE a livello di regione privato e ad alta disponibilità in cui eseguire il deployment del database Qdrant.
Puoi scegliere di eseguire il deployment di Qdrant utilizzando un cluster Standard o Autopilot. Ognuna ha i suoi vantaggi e diversi modelli di prezzo.
Autopilot
Il seguente diagramma mostra un cluster GKE a livello di regione Autopilot di cui è stato eseguito il deployment in tre zone diverse.
Per eseguire il deployment dell'infrastruttura del cluster, esegui questi comandi in Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Le seguenti variabili vengono sostituite durante l'esecuzione:
GOOGLE_OAUTH_ACCESS_TOKEN
: sostituito da un token di accesso recuperato dal comandogcloud auth print-access-token
per autenticare le interazioni con varie API Google CloudPROJECT_ID
,REGION
eKUBERNETES_CLUSTER_PREFIX
sono le variabili di ambiente definite nella sezione Configurare l'ambiente e assegnate alle nuove variabili pertinenti per il cluster Autopilot che stai creando.
Quando richiesto, digita yes
.
L'output è simile al seguente:
...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"
Terraform crea le risorse seguenti:
- Una rete VPC personalizzata e una subnet privata per i nodi Kubernetes.
- Un router Cloud per accedere a internet tramite NAT (Network Address Translation).
- Un cluster GKE privato nella regione
us-central1
. - Un
ServiceAccount
con autorizzazioni di logging e monitoraggio per il cluster. - Configurazione di Google Cloud Managed Service per Prometheus per monitoraggio e avvisi dei cluster.
Standard
Il seguente diagramma mostra un cluster GKE a livello di regione privato standard di cui è stato eseguito il deployment in tre diverse zone.
Per eseguire il deployment dell'infrastruttura del cluster, esegui questi comandi in Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Le seguenti variabili vengono sostituite durante l'esecuzione:
GOOGLE_OAUTH_ACCESS_TOKEN
viene sostituito da un token di accesso recuperato dal comandogcloud auth print-access-token
per autenticare le interazioni con varie API di Google Cloud.PROJECT_ID
,REGION
eKUBERNETES_CLUSTER_PREFIX
sono le variabili di ambiente definite nella sezione Configurare l'ambiente e assegnate alle nuove variabili pertinenti per il cluster Standard che stai creando.
Quando richiesto, digita yes
. Il completamento di questi comandi potrebbe richiedere diversi minuti
e il cluster mostri lo stato Pronto.
L'output è simile al seguente:
...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"
Terraform crea le risorse seguenti:
- Una rete VPC personalizzata e una subnet privata per i nodi Kubernetes.
- Un router Cloud per accedere a internet tramite NAT (Network Address Translation).
- Un cluster GKE privato nella regione
us-central1
con scalabilità automatica abilitata (da uno a due nodi per zona). - Un
ServiceAccount
con autorizzazioni di logging e monitoraggio per il cluster. - Configurazione di Google Cloud Managed Service per Prometheus per il monitoraggio e gli avvisi dei cluster.
Connettiti al cluster
Configura kubectl
per recuperare le credenziali e comunicare con il tuo nuovo cluster GKE:
gcloud container clusters get-credentials \
${KUBERNETES_CLUSTER_PREFIX}-cluster --region ${REGION}
Esegui il deployment del database Qdrant nel tuo cluster
In questo tutorial eseguirai il deployment del database Qdrant (in modalità distribuita) e dell'operatore ad alta disponibilità stateful nel cluster GKE utilizzando il grafico Helm.
Il deployment crea un cluster GKE con la seguente configurazione:
- Tre repliche dei nodi Qdrant.
- Le tolleranze, le affinità dei nodi e i vincoli di diffusione della topologia sono configurati per garantire una distribuzione corretta tra i nodi Kubernetes. Questo sfrutta i pool di nodi e le diverse zone di disponibilità.
- Per l'archiviazione dei dati viene eseguito il provisioning di un volume RePD con tipo di disco SSD.
- Un operatore ad alta disponibilità stateful viene utilizzato per gestire i processi di failover e garantire un'alta disponibilità.
- Per l'autenticazione, il database crea un secret Kubernetes contenente la chiave API.
Per utilizzare il grafico Helm per il deployment del database Qdrant, segui questi passaggi:
Attiva il componente aggiuntivo StatefulHA:
Autopilot
GKE abilita automaticamente il componente aggiuntivo
StatefulHA
al momento della creazione del cluster.Standard
Esegui questo comando:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=StatefulHA=ENABLED
Il completamento di questo comando potrebbe richiedere 15 minuti e il cluster potrebbe mostrare lo stato Pronto.
Aggiungi il repository dei grafici Helm del database Qdrant prima di poterne eseguire il deployment nel cluster GKE:
helm repo add qdrant https://qdrant.github.io/qdrant-helm
Crea lo spazio dei nomi
qdrant
per il database:kubectl create ns qdrant
Applica il manifest per creare un disco SSD permanente a livello di regione
StorageClass
:kubectl apply -n qdrant -f manifests/01-regional-pd/regional-pd.yaml
Il file manifest
regional-pd.yaml
descrive il disco SSD permanenteStorageClass
:Esegui il deployment di una configmap Kubernetes con una configurazione collaterale
metrics
e un cluster Qdrant utilizzando Helm:kubectl apply -n qdrant -f manifests/03-prometheus-metrics/metrics-cm.yaml helm install qdrant-database qdrant/qdrant -n qdrant \ -f manifests/02-values-file/values.yaml
Il file manifest
metrics-cm.yaml
descrive il file collateralemetrics
ConfigMap
:Il file manifest
values.yaml
descrive la configurazione del cluster Qdrant :Questa configurazione abilita la modalità cluster, consentendoti di configurare un cluster Qdrant ad alta disponibilità e distribuito.
Controlla lo stato del deployment:
helm ls -n qdrant
Se il deployment del database
qdrant
è stato eseguito correttamente, l'output è simile al seguente:NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION qdrant-database qdrant 1 2024-02-06 20:21:15.737307567 +0000 UTC deployed qdrant-0.7.6 v1.7.4
Attendi che GKE avvii i carichi di lavoro richiesti:
kubectl wait pods -l app.kubernetes.io/instance=qdrant-database --for condition=Ready --timeout=300s -n qdrant
Il completamento di questo comando potrebbe richiedere alcuni minuti.
Dopo che GKE ha avviato i carichi di lavoro, verifica che GKE abbia creato i carichi di lavoro Qdrant:
kubectl get pod,svc,statefulset,pdb,secret -n qdrant
Avvia la risorsa
HighAvailabilityApplication
(HAA) per Qdrant:kubectl apply -n qdrant -f manifests/01-regional-pd/ha-app.yaml
Il manifest
ha-app.yaml
descrive la risorsaHighAvailabilityApplication
:Le seguenti risorse GKE vengono create per il cluster Qdrant:
- Il parametro
StatefulSet
di Qdrant che controlla tre repliche di pod. A PodDisruptionBudget
, garantendo al massimo una replica non disponibile.- Il servizio
qdrant-database
, che espone la porta Qdrant per le connessioni in entrata e la replica tra i nodi. - Il servizio
qdrant-database-headless
, che fornisce l'elenco dei pod Qdrant in esecuzione. - Il secret di
qdrant-database-apikey
, che semplifica la connessione sicura al database. - Pod dell'operatore ad alta disponibilità stateful e risorsa
HighlyAvailableApplication
, che monitora attivamente l'applicazione Qdrant. La risorsaHighlyAvailableApplication
definisce le regole di failover da applicare a Qdrant.
- Il parametro
Per verificare se le regole di failover vengono applicate, descrivi la risorsa e conferma
Status: Message: Application is protected
.kubectl describe highavailabilityapplication qdrant-database -n qdrant
L'output è simile al seguente:
Status: Conditions: Last Transition Time: 2023-11-30T09:54:52Z Message: Application is protected Observed Generation: 1 Reason: ApplicationProtected Status: True Type: Protected
Carica il set di dati ed esegui query di ricerca con il blocco note Jupyter
Qdrant organizza vettori e payload in raccolte. L'incorporamento vettoriale è una tecnica che rappresenta parole o entità come vettori numerici mantenendone al contempo le relazioni semantiche. Questo è importante per le ricerche di somiglianze, in quanto consente di trovare somiglianze in base al significato piuttosto che a corrispondenze esatte, rendendo attività come i sistemi di ricerca e di suggerimenti più efficaci e specifiche.
Questa sezione mostra come caricare i vettori in una nuova raccolta Qdrant ed eseguire semplici query di ricerca.
In questo esempio, utilizzerai un set di dati di un file CSV che contiene un elenco di libri di diversi generi. Qdrant funge da motore di ricerca e il pod di blocco note Jupyter creato fungerà da client che esegue query nel database Qdrant.
Crea i ConfigMap
books-dataset
edemo-app
ed esegui il deployment del blocco note Jupyter:kubectl create -n qdrant configmap books-dataset --from-file=manifests/04-notebook/dataset.csv kubectl create -n qdrant configmap notebook --from-file=manifests/04-notebook/vector-database.ipynb kubectl apply -n qdrant -f manifests/04-notebook/jupyter.yaml
- Il secret denominato
qdrant-apikey
creato in precedenza viene montato nel pod del client come variabile di ambiente denominataAPIKEY
. - Il ConfigMap
books-dataset
contiene un filecsv
con i dati dei libri per la raccolta Qdrant - Il ConfigMap
notebook
contiene il blocco note Jupyter per creare la raccolta Qdrant dabooks-dataset
.
- Il secret denominato
Attendi che GKE avvii il pod Jupyter:
kubectl wait pods -l app=jupyter-notebook --for condition=Ready --timeout=300s -n qdrant
Apri questo URL e fai clic sul file vector-database.ipynb. Premi Esegui -> Esegui tutte le celle. Jupyter esegue tutto il codice ed esegue una query di ricerca.
Questa query esegue una ricerca semantica rispetto alla tua raccolta
my_books
in Qdrant, recuperando un massimo di due risultati con il punteggio di corrispondenza più alto pertinente al testo della query.Viene visualizzato ciascun risultato separato da una riga di trattini, nel seguente formato :
Title
: titolo del libroAuthor
: autore del libroDescription
: come archiviato nel campo dei metadatidescription
del documentoPublished
: data di pubblicazione del libroScore
: punteggio di pertinenza di Qdrant
L'output è simile al seguente:
Title: Romeo and Juliet Author: William Shakespeare, Paul Werstine (Editor), Barbara A. Mowat (Editor), Paavo Emil Cajander (Translator) Description: In Romeo and Juliet, Shakespeare creates a violent world, in which two young people fall in love. It is not simply that their families disapprove; the Montagues and the Capulets are engaged in a blood feud.In this death-filled setting, the movement from love at first sight to the lovers' final union in death seems almost inevitable. And yet, this play set in an extraordinary world has become the quintessential story of young love. In part because of its exquisite language, it is easy to respond as if it were about all young lovers. Published: 01/01/04 Score: 0.8935013 ----- Title: The Unbearable Lightness of Being Author: Milan Kundera, Michael Henry Heim (Translator) Description: In The Unbearable Lightness of Being, Milan Kundera tells the story of a young woman in love with a man torn between his love for her and his incorrigible womanizing and one of his mistresses and her humbly faithful lover. This magnificent novel juxtaposes geographically distant places, brilliant and playful reflections, and a variety of styles, to take its place as perhaps the major achievement of one of the world's truly great writers. Published: 10/27/09 Score: 0.8931863 -----
Visualizza le metriche di Prometheus per il tuo cluster
Il cluster GKE è configurato con Google Cloud Managed Service per Prometheus, che consente la raccolta di metriche nel formato Prometheus. Questo servizio fornisce una soluzione completamente gestita per il monitoraggio e gli avvisi, che consente la raccolta, l'archiviazione e l'analisi delle metriche del cluster e delle relative applicazioni.
Il seguente diagramma mostra in che modo Prometheus raccoglie le metriche per il tuo cluster:
Il cluster privato GKE nel diagramma contiene i seguenti componenti:
- Pod Qdrant che espongono metriche sul percorso
/
e sulla porta80
. Queste metriche sono fornite dal container collaterale denominatometrics
. - Raccoglitori basati su Prometheus che elaborano le metriche dai pod Qdrant.
- Una risorsa PodMonitoring che invia le metriche a Cloud Monitoring.
Per esportare e visualizzare le metriche:
Crea la risorsa
PodMonitoring
per eseguire lo scraping delle metriche in base alabelSelector
:kubectl apply -n qdrant -f manifests/03-prometheus-metrics/pod-monitoring.yaml
Il manifest
pod-monitoring.yaml
descrive la risorsaPodMonitoring
:Crea una dashboard di Cloud Monitoring con le configurazioni definite in
dashboard.json
:gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
Una volta eseguito correttamente il comando, vai alle dashboard di Cloud Monitoring:
Dall'elenco delle dashboard, apri la dashboard
Qdrant Overview
. Potrebbero essere necessari 1-2 minuti per raccogliere e visualizzare le metriche.La dashboard mostra un conteggio delle metriche chiave:
- Raccolte
- Vettori incorporati
- Operazioni in attesa
- Nodi in esecuzione
Esegui il backup della configurazione del cluster
La funzionalità Backup per GKE consente di pianificare backup regolari dell'intera configurazione del cluster GKE, inclusi i carichi di lavoro di cui è stato eseguito il deployment e i relativi dati.
In questo tutorial configurerai un piano di backup per il tuo cluster GKE per eseguire i backup di tutti i carichi di lavoro, inclusi secret e volumi, ogni giorno alle 03:00. Per garantire una gestione efficiente dello spazio di archiviazione, i backup più vecchi di tre giorni verranno eliminati automaticamente.
Per configurare i piani di backup, segui questi passaggi:
Abilita la funzionalità Backup per GKE per il tuo cluster:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=BackupRestore=ENABLED
Crea un piano di backup con una pianificazione giornaliera per tutti gli spazi dei nomi all'interno del cluster:
gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \ --project=${PROJECT_ID} \ --location=${REGION} \ --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \ --all-namespaces \ --include-secrets \ --include-volume-data \ --cron-schedule="0 3 * * *" \ --backup-retain-days=3
Il comando utilizza le variabili di ambiente pertinenti in fase di runtime.
Il formato del nome del cluster è relativo al progetto e alla regione come segue:
projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
Quando richiesto, digita
y.
. L'output è simile al seguente:Create request issued for: [qdrant-cluster-backup] Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
Questa operazione potrebbe richiedere alcuni minuti. Al termine dell'esecuzione, l'output è simile al seguente:
Created backup plan [qdrant-cluster-backup].
Puoi visualizzare il piano di backup
qdrant-cluster-backup
appena creato nell'elenco della console di Backup per GKE.
Se vuoi ripristinare le configurazioni di backup salvate, vedi Ripristinare un backup.
Esegui la pulizia
Per evitare che al tuo Account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.
Elimina il progetto
Il modo più semplice per evitare la fatturazione è eliminare il progetto che hai creato per questo tutorial.
Elimina un progetto Google Cloud:
gcloud projects delete PROJECT_ID
Se hai eliminato il progetto, la pulizia è completata. Se non hai eliminato il progetto, procedi con l'eliminazione delle singole risorse.
Elimina singole risorse
Imposta le variabili di ambiente.
export PROJECT_ID=${PROJECT_ID} export KUBERNETES_CLUSTER_PREFIX=qdrant export REGION=us-central1
Esegui il comando
terraform destroy
:export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token) terraform -chdir=terraform/FOLDER destroy \ -var project_id=${PROJECT_ID} \ -var region=${REGION} \ -var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Sostituisci
FOLDER
congke-autopilot
ogke-standard
, a seconda del tipo di cluster GKE che hai creato.Quando richiesto, digita
yes
.Trova tutti i dischi scollegati:
export disk_list=$(gcloud compute disks list --filter="-users:* AND labels.name=${KUBERNETES_CLUSTER_PREFIX}-cluster" --format "value[separator=|](name,region)")
Elimina i dischi:
for i in $disk_list; do disk_name=$(echo $i| cut -d'|' -f1) disk_region=$(echo $i| cut -d'|' -f2|sed 's|.*/||') echo "Deleting $disk_name" gcloud compute disks delete $disk_name --region $disk_region --quiet done
Elimina il repository GitHub:
rm -r ~/kubernetes-engine-samples/
Passaggi successivi
- Scopri il software open source Qdrant.
- Prova l'operatore Qdrant che offre la gestione delle chiavi API, il supporto TLS con la gestione dei certificati e la pianificazione dei backup.
- Scopri le best practice per il deployment dei database su GKE.
- Scopri le soluzioni per l'esecuzione di carichi di lavoro ad alta intensità di dati con GKE.