En esta guía, se muestra cómo implementar un clúster de base de datos vectorial Qdrant en Google Kubernetes Engine (GKE).
Las bases de datos vectoriales son almacenes de datos diseñados específicamente para administrar y buscar en grandes colecciones de vectores de alta dimensión. Estos vectores representan datos como texto, imágenes, audio, video o cualquier dato que se pueda codificar de forma numérica. A diferencia de las bases de datos tradicionales, que se basan en coincidencias exactas, las bases de datos vectoriales se especializan en encontrar elementos similares o identificar patrones dentro de conjuntos de datos masivos. Estas características hacen que Qdrant sea una opción adecuada para una variedad de aplicaciones, incluidas la red neuronal o la coincidencia basada en la semántica, la búsqueda por facetas y más. Qdrant funciona no solo como una base de datos vectorial sino también como un motor de búsqueda de similitud vectorial.
Este instructivo está dirigido a administradores y arquitectos de plataformas de nube, ingenieros de AA y profesionales de MLOps (DevOps) interesados en implementar clústeres de bases de datos de Qdrant en GKE.
Ventajas
Qdrant ofrece los siguientes beneficios:
- Amplia gama de bibliotecas para varios lenguajes de programación y API abierta para integrar en otros servicios.
- Escalamiento horizontal y compatibilidad con la fragmentación y la replicación que simplifica el escalamiento y la alta disponibilidad.
- Compatibilidad con contenedores y Kubernetes que permite la implementación y la administración en entornos modernos nativos de la nube.
- Cargas útiles flexibles con filtrado avanzado para adaptar los criterios de búsqueda con precisión.
- Diferentes opciones de cuantización y otras optimizaciones para reducir los costos de infraestructura y mejorar el rendimiento.
Objetivos
En este instructivo, aprenderás a realizar lo siguiente:
- Planificar y, además, implementar la infraestructura de GKE para Qdrant
- Implementar el operador StatefulHA para garantizar la alta disponibilidad de Qdrant.
- Implementar y configurar el clúster de Qdrant.
- Subir un conjunto de datos de demostración y ejecuta una búsqueda simple.
- Recopilar métricas y ejecutar un panel.
Arquitectura de implementación
Esta arquitectura configura un clúster de GKE escalable y tolerante a errores para Qdrant en varias zonas de disponibilidad, lo que garantiza el tiempo de actividad y la disponibilidad con actualizaciones progresivas y también interrupciones mínimas. Incluye el uso del operador StatefulHA para una administración eficiente de la conmutación por error. Para obtener más información, consulta Clústeres regionales.
Diagrama de arquitectura
En el siguiente diagrama, se muestra un clúster de Qdrant que se ejecuta en varios nodos y zonas en un clúster de GKE:
En esta arquitectura, el StatefulSet
de Qdrant se implementa en tres nodos en tres zonas diferentes.
- Puedes controlar cómo GKE distribuye los Pods entre los nodos gracias a la configuración de las reglas de afinidad de Pod necesarias y las restricciones de distribución de topología en el archivo de valores del gráfico de Helm.
- Si una zona falla, GKE reprograma los Pods en nodos nuevos según la configuración recomendada.
Para la persistencia de datos, la arquitectura de este instructivo tiene las siguientes características:
- Usa discos SSD regionales (StorageClass personalizados
regional-pd
) para conservar datos. Recomendamos los discos SSD regionales para las bases de datos debido a su baja latencia y sus altas IOPS. - Todos los datos del disco se replican entre las zonas principal y secundaria de la región, lo que aumenta la tolerancia a posibles fallas de zonas.
Costos
En este documento, usarás los siguientes componentes facturables de Google Cloud:
Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios.
Cuando finalices las tareas que se describen en este documento, puedes borrar los recursos que creaste para evitar que continúe la facturación. Para obtener más información, consulta Cómo realizar una limpieza.
Antes de comenzar
En este instructivo, usarás Cloud Shell para ejecutar comandos. Cloud Shell es un entorno de shell que se usa para administrar recursos alojados en Google Cloud. Viene preinstalado con las herramientas de línea de comando de Google Cloud CLI, kubectl, Helm y Terraform. Si no usas Cloud Shell, debes instalar Google Cloud CLI.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE APIs:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com - Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE APIs:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com -
Grant roles to your user account. Run the following command once for each of the following IAM roles:
role/storage.objectViewer, roles/container.admin, roles/iam.serviceAccountAdmin, roles/compute.admin, roles/gkebackup.admin, roles/monitoring.viewer
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
Configura tu entorno
Para configurar tu entorno con Cloud Shell, sigue estos pasos:
Configura las variables de entorno del proyecto, la región y el prefijo de recursos del clúster de Kubernetes:
Para los fines de este instructivo, usa la región
us-central1
para crear tus recursos de implementación.export PROJECT_ID=PROJECT_ID export KUBERNETES_CLUSTER_PREFIX=qdrant export REGION=us-central1
- Reemplaza
PROJECT_ID
por el ID del proyecto de Google Cloud.
- Reemplaza
Verifica la versión de Helm:
helm version
Actualiza la versión si es anterior a la 3.13:
curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
Clona el repositorio de código de muestra de GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Navega al directorio
qdrant
para comenzar a crear recursos de implementación:cd kubernetes-engine-samples/databases/qdrant
Crea la infraestructura del clúster
En esta sección, se incluye la ejecución de una secuencia de comandos de Terraform para crear un clúster de GKE regional privado y con alta disponibilidad con el objetivo de implementar tu base de datos de Qdrant.
Puedes elegir implementar Qdrant usando un clúster de Standard o Autopilot. Cada uno tiene sus propias ventajas y diferentes modelos de precios.
Autopilot
En el siguiente diagrama, se muestra un clúster de GKE regional de Autopilot implementado en tres zonas diferentes.
Para implementar la infraestructura del clúster, ejecuta los siguientes comandos en Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Las siguientes variables se reemplazan en el entorno de ejecución:
GOOGLE_OAUTH_ACCESS_TOKEN
: Se reemplaza por un token de acceso recuperado por el comandogcloud auth print-access-token
para autenticar interacciones con varias APIs de Google Cloud.PROJECT_ID
,REGION
yKUBERNETES_CLUSTER_PREFIX
son las variables de entorno definidas en la sección Configura tu entorno y asignadas a las nuevas variables relevantes para el clúster de Autopilot que creas.
Cuando se te solicite, escribe yes
.
El resultado es similar al siguiente:
...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"
Terraform crea los siguientes recursos:
- Una red de VPC personalizada y una subred privada para los nodos de Kubernetes
- Un Cloud Router para acceder a Internet a través de la traducción de direcciones de red (NAT).
- Un clúster de GKE privado en la región
us-central1
. - Un
ServiceAccount
con permisos de registro y supervisión para el clúster. - Configuración de Google Cloud Managed Service para Prometheus para la supervisión y las alertas de clústeres.
Estándar
En el siguiente diagrama, se muestra un clúster de GKE regional privado de Standard implementado en tres zonas diferentes.
Para implementar la infraestructura del clúster, ejecuta los siguientes comandos en Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Las siguientes variables se reemplazan en el entorno de ejecución:
GOOGLE_OAUTH_ACCESS_TOKEN
se reemplaza por un token de acceso recuperado por el comandogcloud auth print-access-token
para autenticar las interacciones con varias APIs de Google Cloud.PROJECT_ID
,REGION
yKUBERNETES_CLUSTER_PREFIX
son las variables de entorno definidas en la sección Configura tu entorno y asignadas a las nuevas variables relevantes para el clúster de Standard que creas.
Cuando se te solicite, escribe yes
. Es posible que estos comandos tarden varios minutos en completarse y que el clúster muestre un estado de preparación.
El resultado es similar al siguiente:
...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"
Terraform crea los siguientes recursos:
- Una red de VPC personalizada y una subred privada para los nodos de Kubernetes
- Un Cloud Router para acceder a Internet a través de la traducción de direcciones de red (NAT).
- Un clúster de GKE privado en la región
us-central1
con el ajuste de escala automático habilitado (de uno a dos nodos por zona). - Un
ServiceAccount
con permisos de registro y supervisión para el clúster. - Configuración de Google Cloud Managed Service para Prometheus para la supervisión y las alertas de clústeres.
Conéctate al clúster
Configura kubectl
para recuperar credenciales y comunicarte con tu nuevo clúster de GKE:
gcloud container clusters get-credentials \
${KUBERNETES_CLUSTER_PREFIX}-cluster --region ${REGION}
Implementa la base de datos de Qdrant en tu clúster
En este instructivo, implementarás la base de datos Qdrant (en modo distribuido) y el operador de HA con estado en el clúster de GKE usando el gráfico de Helm.
La implementación crea un clúster de GKE con la siguiente configuración:
- Tres réplicas de los nodos del Qdrant.
- Las tolerancias, las afinidades de nodos y las restricciones de distribución de topología se configuran para garantizar una distribución adecuada en los nodos de Kubernetes. Esto aprovecha los grupos de nodos y las diferentes zonas de disponibilidad.
- Se aprovisiona un volumen de RePD con el tipo de disco SSD para el almacenamiento de datos.
- Se usa un operador de alta disponibilidad con estado para administrar los procesos de conmutación por error y garantizar una alta disponibilidad.
- Para la autenticación, la base de datos crea un secreto de Kubernetes que contiene la clave de API.
Para usar el gráfico de Helm y así implementar la base de datos de Qdrant, sigue estos pasos:
Habilita el complemento StatefulHA:
Autopilot
GKE habilita automáticamente el complemento
StatefulHA
durante la creación del clúster.Estándar
Ejecuta el siguiente comando:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=StatefulHA=ENABLED
Es posible que este comando tarde 15 minutos en completarse y que el clúster muestre un estado de preparación.
Agrega el repositorio de gráficos de Helm de la base de datos de Qdrant para poder implementarlo en tu clúster de GKE:
helm repo add qdrant https://qdrant.github.io/qdrant-helm
Crea el espacio de nombres
qdrant
para la base de datos:kubectl create ns qdrant
Aplica el manifiesto para crear un disco SSD persistente regional
StorageClass
:kubectl apply -n qdrant -f manifests/01-regional-pd/regional-pd.yaml
En el manifiesto de
regional-pd.yaml
, se describe el disco SSD persistenteStorageClass
:Implementa un ConfigMap de Kubernetes con una configuración de archivo adicional
metrics
y un clúster de Qdrant usando Helm:kubectl apply -n qdrant -f manifests/03-prometheus-metrics/metrics-cm.yaml helm install qdrant-database qdrant/qdrant -n qdrant \ -f manifests/02-values-file/values.yaml
En el manifiesto de
metrics-cm.yaml
, se describe el archivo adicionalConfigMap
demetrics
:En el manifiesto
values.yaml
, se describe la configuración del clúster de Qdrant:Esta configuración habilita el modo de clúster, lo que te permite establecer un clúster de Qdrant con alta disponibilidad y distribuido.
Verifica el estado de la implementación:
helm ls -n qdrant
Si la base de datos
qdrant
se implementó de forma correcta, el resultado es similar al siguiente:NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION qdrant-database qdrant 1 2024-02-06 20:21:15.737307567 +0000 UTC deployed qdrant-0.7.6 v1.7.4
Espera a que GKE inicie las cargas de trabajo requeridas:
kubectl wait pods -l app.kubernetes.io/instance=qdrant-database --for condition=Ready --timeout=300s -n qdrant
Este comando puede tardar unos minutos en completarse correctamente.
Una vez que GKE inicie las cargas de trabajo, verifica que GKE haya creado las cargas de trabajo de Qdrant:
kubectl get pod,svc,statefulset,pdb,secret -n qdrant
Inicia el recurso
HighAvailabilityApplication
(HAA) para Qdrant:kubectl apply -n qdrant -f manifests/01-regional-pd/ha-app.yaml
El manifiesto
ha-app.yaml
describe el recursoHighAvailabilityApplication
:Los siguientes recursos de GKE se crean para el clúster de Qdrant:
- El
StatefulSet
del Qdrant que controla tres réplicas de Pod. A PodDisruptionBudget
, lo que garantiza un máximo de una réplica no disponible.- El servicio
qdrant-database
, que expone el puerto de Qdrant para las conexiones entrantes y la replicación entre nodos. - El servicio
qdrant-database-headless
, que proporciona la lista de pods de Qdrant en ejecución. - El secreto
qdrant-database-apikey
, que facilita una conexión segura de la base de datos. - Pod de operador de HA con estado y recurso
HighlyAvailableApplication
, que supervisa de forma activa la aplicación de Qdrant. El recursoHighlyAvailableApplication
define reglas de conmutación por error que se aplicarán en Qdrant.
- El
Para verificar si se aplican las reglas de conmutación por error, describe el recurso y confirma
Status: Message: Application is protected
.kubectl describe highavailabilityapplication qdrant-database -n qdrant
El resultado es similar al siguiente:
Status: Conditions: Last Transition Time: 2023-11-30T09:54:52Z Message: Application is protected Observed Generation: 1 Reason: ApplicationProtected Status: True Type: Protected
Sube el conjunto de datos y ejecuta búsquedas con el notebook de Jupyter
Qdrant organiza vectores y cargas útiles en colecciones. La incorporación vectorial es una técnica que representa palabras o entidades como vectores numéricos mientras mantienen sus relaciones semánticas. Esto es importante para las búsquedas de similitud, ya que permite encontrar similitudes basadas en el significado en lugar de en las coincidencias exactas, lo que hace que las tareas como los sistemas de búsqueda y recomendación sean más eficaces y matizadas.
En esta sección, se muestra cómo subir vectores a una colección nueva de Qdrant y ejecutar búsquedas simples.
En este ejemplo, se usa un conjunto de datos de un archivo CSV que contiene una lista de libros de diferentes géneros. Qdrant funcionará como un motor de búsqueda, y el Pod del notebook de Jupyter que crees funcionará como un cliente que consulta la base de datos de Qdrant.
Crea los ConfigMaps
books-dataset
ydemo-app
y, luego, implementa el notebook de Jupyter:kubectl create -n qdrant configmap books-dataset --from-file=manifests/04-notebook/dataset.csv kubectl create -n qdrant configmap notebook --from-file=manifests/04-notebook/vector-database.ipynb kubectl apply -n qdrant -f manifests/04-notebook/jupyter.yaml
- El Secret con el nombre
qdrant-apikey
que se creó antes se activa en el Pod del cliente como una variable de entorno llamadaAPIKEY
. - El ConfigMap
books-dataset
contiene un archivocsv
con datos de libros de la colección de Qdrant - El ConfigMap
notebook
contiene el notebook de Jupyter para crear la colección de Qdrant a partir debooks-dataset
.
- El Secret con el nombre
Espera a que GKE inicie el Pod de Jupyter:
kubectl wait pods -l app=jupyter-notebook --for condition=Ready --timeout=300s -n qdrant
Abre esta URL y haz clic en el archivo vector-database.ipynb. Presiona Ejecutar -> Ejecutar todas las celdas. Jupyter ejecutará todo el código y realizará una búsqueda.
Esta consulta realiza una búsqueda semántica en la colección
my_books
en Qdrant y recupera un máximo de dos resultados con la puntuación de coincidencia más alta relevante para el texto de tu consulta.Imprime cada resultado separado por una línea de guiones, en el siguiente formato:
Title
: Es el título del libroAuthor
: Es el autor del libroDescription
: Cómo se almacena en el campo de metadatosdescription
de tu documentoPublished
: Fecha de publicación del libroScore
: Puntuación de relevancia de Qdrant
El resultado es similar al siguiente:
Title: Romeo and Juliet Author: William Shakespeare, Paul Werstine (Editor), Barbara A. Mowat (Editor), Paavo Emil Cajander (Translator) Description: In Romeo and Juliet, Shakespeare creates a violent world, in which two young people fall in love. It is not simply that their families disapprove; the Montagues and the Capulets are engaged in a blood feud.In this death-filled setting, the movement from love at first sight to the lovers' final union in death seems almost inevitable. And yet, this play set in an extraordinary world has become the quintessential story of young love. In part because of its exquisite language, it is easy to respond as if it were about all young lovers. Published: 01/01/04 Score: 0.8935013 ----- Title: The Unbearable Lightness of Being Author: Milan Kundera, Michael Henry Heim (Translator) Description: In The Unbearable Lightness of Being, Milan Kundera tells the story of a young woman in love with a man torn between his love for her and his incorrigible womanizing and one of his mistresses and her humbly faithful lover. This magnificent novel juxtaposes geographically distant places, brilliant and playful reflections, and a variety of styles, to take its place as perhaps the major achievement of one of the world's truly great writers. Published: 10/27/09 Score: 0.8931863 -----
Visualiza las métricas de Prometheus de tu clúster
El clúster de GKE se configura con Google Cloud Managed Service para Prometheus, que permite la recopilación de métricas en el formato de Prometheus. Este servicio proporciona una solución completamente administrada para la supervisión y las alertas, lo que permite la recopilación, el almacenamiento y el análisis de métricas del clúster y sus aplicaciones.
En el siguiente diagrama, se muestra cómo Prometheus recopila métricas para tu clúster:
El clúster privado de GKE en el diagrama contiene los siguientes componentes:
- Pods del Qdrant que exponen las métricas en la ruta
/
y el puerto80
. El contenedor de archivo adicional llamadometrics
proporciona estas métricas. - Recopiladores basados en Prometheus que procesan las métricas de los Pods de Qdrant.
- Un recurso PodMonitoring que envía las métricas a Cloud Monitoring.
Para exportar y ver las métricas, sigue estos pasos:
Crea el recurso
PodMonitoring
para extraer métricas porlabelSelector
:kubectl apply -n qdrant -f manifests/03-prometheus-metrics/pod-monitoring.yaml
El manifiesto
pod-monitoring.yaml
describe el recursoPodMonitoring
:Crea un panel de Cloud Monitoring con la configuración definida en
dashboard.json
:gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
Después de que el comando se ejecute de forma correcta, ve a los Paneles de Cloud Monitoring:
En la lista de paneles, abre el panel
Qdrant Overview
. La recopilación y visualización de las métricas puede llevar entre 1 y 2 minutos.En el panel, se muestra un recuento de las métricas clave:
- Colecciones
- Vectores incorporados
- Operaciones pendientes
- Ejecución de nodos
Crea una copia de seguridad de la configuración del clúster
La función Copia de seguridad para GKE te permite programar copias de seguridad regulares de toda la configuración del clúster de GKE, incluidas las cargas de trabajo implementadas y sus datos.
En este instructivo, configurarás un plan de copia de seguridad para tu clúster de GKE a fin de realizar copias de seguridad de todas las cargas de trabajo, incluidos Secrets y volúmenes, todos los días a las 3 a.m. Para garantizar una administración del almacenamiento eficiente, las copias de seguridad que tengan más de tres días serían las siguientes: Se borran automáticamente.
Para configurar los planes de copia de seguridad, sigue estos pasos:
Habilita la función de copia de seguridad para GKE en tu clúster:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=BackupRestore=ENABLED
Crea un plan de copia de seguridad con un programa diario para todos los espacios de nombres dentro del clúster:
gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \ --project=${PROJECT_ID} \ --location=${REGION} \ --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \ --all-namespaces \ --include-secrets \ --include-volume-data \ --cron-schedule="0 3 * * *" \ --backup-retain-days=3
El comando usa las variables de entorno relevantes en el entorno de ejecución.
El formato del nombre del clúster se relaciona con tu proyecto y región de la siguiente manera:
projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
Cuando se te solicite, escribe
y.
. El resultado es similar al siguiente:Create request issued for: [qdrant-cluster-backup] Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
Esta operación puede tardar unos minutos en completarse correctamente. Una vez que se completa la ejecución, el resultado es similar al siguiente:
Created backup plan [qdrant-cluster-backup].
Puedes ver el plan de copia de seguridad recién creado
qdrant-cluster-backup
en la consola de Copia de seguridad para GKE.
Si deseas restablecer las opciones de configuración de copia de seguridad guardadas, consulta Restablece una copia de seguridad.
Limpia
Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.
Borra el proyecto
La manera más fácil de evitar la facturación es borrar el proyecto que creaste para el instructivo.
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID
Si borraste el proyecto, tu limpieza se completó. Si no borraste el proyecto, borra los recursos individuales.
Borra los recursos individuales
Configurar variables de entorno
export PROJECT_ID=${PROJECT_ID} export KUBERNETES_CLUSTER_PREFIX=qdrant export REGION=us-central1
Ejecuta el comando
terraform destroy
:export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token) terraform -chdir=terraform/FOLDER destroy \ -var project_id=${PROJECT_ID} \ -var region=${REGION} \ -var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Reemplaza
FOLDER
porgke-autopilot
ogke-standard
, según el tipo de clúster de GKE que hayas creado.Cuando se te solicite, escribe
yes
.Busca todos los discos no conectados:
export disk_list=$(gcloud compute disks list --filter="-users:* AND labels.name=${KUBERNETES_CLUSTER_PREFIX}-cluster" --format "value[separator=|](name,region)")
Borra los discos:
for i in $disk_list; do disk_name=$(echo $i| cut -d'|' -f1) disk_region=$(echo $i| cut -d'|' -f2|sed 's|.*/||') echo "Deleting $disk_name" gcloud compute disks delete $disk_name --region $disk_region --quiet done
Borra el repositorio de GitHub
rm -r ~/kubernetes-engine-samples/
¿Qué sigue?
- Explora el software de código abierto de Qdrant.
- Prueba laOperador Qdrant que ofrece Administración de claves de API, compatibilidad con TLS con administración de certificados y programación de copias de seguridad.
- Conoce las prácticas recomendadas para implementar bases de datos en GKE.
- Descubre soluciones para ejecutar cargas de trabajo con uso intensivo de datos con GKE.