Questo tutorial mostra come eseguire il deployment di un cluster di database di vettori Weaviate su Google Kubernetes Engine (GKE).
Weaviate è un database vettoriale open source a bassa latenza il rendimento e il supporto di base per vari tipi di media come testo e immagini. Supporta la ricerca semantica, la risposta a domande e la classificazione. Weaviate è completamente basata su Go e memorizza sia oggetti che vettori, consentendo l'uso di modelli ricerca basata su parole chiave, ricerca per parole chiave e una combinazione di entrambi in una ricerca ibrida. Dal punto di vista dell'infrastruttura, Weaviate è un database cloud-native e a tolleranza di errori. La tolleranza di errore viene fornita dall'architettura senza leader, in cui ogni nodo database un cluster può gestire richieste di lettura e scrittura che a loro volta escludono un singolo punto di errore.
Questo tutorial è rivolto ad amministratori e architetti della piattaforma cloud, ingegneri ML e professionisti MLOps (DevOps) interessati a eseguire il deployment di cluster di database vettoriali su GKE.
Vantaggi
Weaviate offre i seguenti vantaggi:
- Librerie per vari linguaggi di programmazione e API aperte da integrare con altri servizi.
- Scalabilità orizzontale.
- Un equilibrio tra convenienza e velocità delle query, soprattutto quando si ha a che fare con set di dati di grandi dimensioni. Puoi scegliere la quantità di dati da archiviare in memoria e non su disco.
Obiettivi
In questo tutorial imparerai a:
- Pianifica ed esegui il deployment dell'infrastruttura GKE per Weaviate.
- Esegui il deployment e configura il database Weaviate in un cluster GKE.
- Esegui un blocco note per generare e archiviare incorporamenti vettoriali di esempio all'interno del tuo ed eseguire query di ricerca basate su vettori.
Costi
In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:
Per generare una stima dei costi basata sull'utilizzo previsto,
utilizza il Calcolatore prezzi.
Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.
Prima di iniziare
In questo tutorial utilizzerai Cloud Shell per . Cloud Shell è un ambiente shell per la gestione delle risorse ospitate su Google Cloud. È preinstallato Google Cloud CLI, kubectl, Helm e Terraform a riga di comando. Se non utilizzi Cloud Shell, devi installare Google Cloud CLI.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Resource Manager, Compute Engine, GKE, and IAM Service Account Credentials APIs:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com - Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Resource Manager, Compute Engine, GKE, and IAM Service Account Credentials APIs:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com -
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/compute.securityAdmin, roles/compute.viewer, roles/container.clusterAdmin, roles/container.admin, roles/iam.serviceAccountAdmin, roles/iam.serviceAccountUser, roles/monitoring.viewer
gcloud projects add-iam-policy-binding PROJECT_ID --member="USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
Configura l'ambiente
Per configurare l'ambiente con Cloud Shell:
Imposta le variabili di ambiente per il progetto, la regione e un cluster Kubernetes prefisso risorsa cluster:
export PROJECT_ID=PROJECT_ID export KUBERNETES_CLUSTER_PREFIX=weaviate export REGION=us-central1
Sostituisci
PROJECT_ID
con il tuo ID progetto Google Cloud.Questo tutorial utilizza la regione
us-central1
per creare le risorse di deployment.Controlla la versione di Helm:
helm version
Aggiorna la versione se è precedente alla 3.13:
curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
Clona il repository di codice di esempio da GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Vai alla directory
weaviate
:cd kubernetes-engine-samples/databases/weaviate
Crea l'infrastruttura del tuo cluster
In questa sezione eseguirai uno script Terraform per creare un cluster privato, cluster GKE a livello di regione per il deployment del database Weaviate.
Puoi scegliere di eseguire il deployment di Weaviate utilizzando un cluster standard o Autopilot. Ognuno ha i suoi vantaggi e modelli di prezzi diversi.
Autopilot
Il seguente diagramma mostra un cluster GKE Autopilot eseguito nel progetto.
Per eseguire il deployment dell'infrastruttura del cluster, esegui i seguenti comandi in Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
GKE sostituisce le seguenti variabili in fase di runtime:
GOOGLE_OAUTH_ACCESS_TOKEN
utilizzagcloud auth print-access-token
per recuperare un token di accesso che autentica le interazioni con varie API Google CloudPROJECT_ID
,REGION
eKUBERNETES_CLUSTER_PREFIX
sono l'ambiente definite nella sezione Configurare l'ambiente e assegnate alle nuove variabili pertinenti per il cluster Autopilot che stai creando.
Quando richiesto, digita yes
.
L'output è simile al seguente:
...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials weaviate-cluster --region us-central1"
Terraform crea le seguenti risorse:
- Una rete VPC personalizzata e una subnet privata per i nodi Kubernetes.
- Un router Cloud per accedere a internet tramite Network Address Translation (NAT).
- Un cluster GKE privato nella regione
us-central1
. - Un'
ServiceAccount
con autorizzazioni di logging e monitoraggio per il cluster. - Configurazione di Google Cloud Managed Service per Prometheus per il monitoraggio e l'invio di avvisi per i cluster.
Standard
Il seguente diagramma mostra un cluster GKE a livello di regione privato standard di cui è stato eseguito il deployment in tre diverse zone.
Per eseguire il deployment dell'infrastruttura del cluster, esegui i seguenti comandi in Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
GKE sostituisce le seguenti variabili in fase di runtime:
GOOGLE_OAUTH_ACCESS_TOKEN
utilizzagcloud auth print-access-token
per recuperare un token di accesso che autentica le interazioni con di varie API Google Cloud.PROJECT_ID
,REGION
eKUBERNETES_CLUSTER_PREFIX
sono le variabili di ambiente definita nella sezione Configurare l'ambiente e assegnata al nuovo e variabili pertinenti per il cluster standard che stai creando.
Quando richiesto, digita yes
. Potrebbero essere necessari diversi minuti prima che questi comandi vengano completati e che il cluster mostri lo stato di disponibilità.
L'output è simile al seguente:
...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials weaviate-cluster --region us-central1"
Terraform crea le seguenti risorse:
- Una rete VPC personalizzata e una subnet privata per i nodi Kubernetes.
- Un router Cloud per accedere a internet tramite Network Address Translation (NAT).
- Un cluster GKE privato nella regione
us-central1
con la scalabilità automatica abilitata (da uno a due nodi per zona). - Un'
ServiceAccount
con autorizzazioni di logging e monitoraggio per il cluster. - Configurazione di Google Cloud Managed Service per Prometheus per il monitoraggio e l'invio di avvisi dei cluster.
Connettiti al cluster
Configura kubectl
per recuperare le credenziali e comunicare con il nuovo cluster GKE:
gcloud container clusters get-credentials \
${KUBERNETES_CLUSTER_PREFIX}-cluster --region ${REGION}
esegui il deployment del database Weaviate nel tuo cluster
Per utilizzare il grafico Helm per eseguire il deployment del database Weaviate nel cluster GKE, segui questi passaggi:
Aggiungi il repository del grafico Helm del database Weaviate prima di poterlo eseguire sul tuo cluster GKE:
helm repo add weaviate https://weaviate.github.io/weaviate-helm
Crea lo spazio dei nomi
weaviate
per il database:kubectl create ns weaviate
Crea un secret per archiviare la chiave API:
kubectl create secret generic apikeys --from-literal=AUTHENTICATION_APIKEY_ALLOWED_KEYS=$(openssl rand -base64 32) -n weaviate
Esegui il deployment di un bilanciatore del carico interno per accedere a Weaviate dall'interno della rete virtuale:
kubectl apply -n weaviate -f manifests/05-ilb/ilb.yaml
Il manifest
ilb.yaml
descrive il servizio del bilanciatore del carico:Applica il manifest per eseguire il deployment del cluster Weaviate:
helm upgrade --install "weaviate" weaviate/weaviate \ --namespace "weaviate" \ --values ./manifests/01-basic-cluster/weaviate_cluster.yaml
Il manifest
weaviate_cluster.yaml
descrive il deployment:Attendi qualche minuto per l'avvio completo del cluster Weaviate.
Controlla lo stato del deployment:
kubectl get weaviate -n weaviate --watch
L'output è simile al seguente, se il database
weaviate
viene eseguito correttamente di cui è stato eseguito il deployment:NAME: weaviate LAST DEPLOYED: Tue Jun 18 13:15:53 2024 NAMESPACE: weaviate STATUS: deployed REVISION: 1 TEST SUITE: None
Attendi che Kubernetes avvii le risorse:
kubectl wait pods -l app.kubernetes.io/name=weaviate --for condition=Ready --timeout=300s -n weaviate
Esegui query con il blocco note di Vertex AI Colab Enterprise
Questa sezione spiega come connetterti al tuo database Weaviate utilizzando Colab Enterprise.
Puoi utilizzare un modello di runtime dedicato per eseguire il deployment su weaviate-vpc
, in modo che
un blocco note può comunicare con risorse
nel cluster GKE.
Crea un modello di runtime
Per creare un modello di runtime:
Nella console Google Cloud, vai alla pagina Modelli di runtime di Colab Enterprise e assicurati che il progetto sia selezionato:
Fai clic su add_box Nuovo modello. Il riquadro Crea nuovo viene visualizzata la pagina di modello di runtime.
Nella sezione Nozioni di base sul runtime:
- Nel campo Nome visualizzato, inserisci
weaviate-connect
. - Nell'elenco a discesa Regione, seleziona
us-central1
. Questa è la stessa regione come tuo cluster GKE.
- Nel campo Nome visualizzato, inserisci
Nella sezione Configura l'elaborazione:
- Nell'elenco a discesa Tipo di macchina, seleziona
e2-standard-2
. - Nel campo Dimensione disco, inserisci
30
.
- Nell'elenco a discesa Tipo di macchina, seleziona
Nella sezione Networking e sicurezza:
- Nell'elenco a discesa Rete, seleziona la rete in cui del cluster GKE.
- Nell'elenco a discesa Subnet, seleziona una subnet corrispondente.
- Deseleziona la casella di controllo Attiva l'accesso a internet pubblico.
Fai clic su Crea per completare la creazione del modello di runtime. Il tuo modello di runtime Viene visualizzato nell'elenco della scheda Modelli di runtime.
Creare un runtime
Per creare un runtime:
Nell'elenco dei modelli di runtime, fai clic su more_vert nella colonna Azioni per il modello appena creato, quindi fai clic su Crea runtime. Viene visualizzato il riquadro Crea runtime Vertex AI.
Fai clic su Crea per creare un runtime in base al modello.
Nella scheda Runtime che si apre, attendi che lo stato passi a Integro.
Importa il notebook
Per importare il notebook:
Vai alla scheda Blocchi note e fai clic su Importa blocco note dagli URL.
In Origine dell'importazione, seleziona URL.
In URL notebook, incolla il seguente link:
raw.githubusercontent.com/GoogleCloudPlatform/kubernetes-engine-samples/main/databases/weaviate/manifests/02-notebook/vector-database.ipynb
Fai clic su Importa.
Connettiti al runtime ed esegui query
Per connetterti al runtime ed eseguire query:
Nel notebook, accanto al pulsante Connetti, fai clic su arrow_drop_down Altre opzioni di connessione. Viene visualizzato il riquadro Connetti al runtime di Vertex AI.
Seleziona Connetti a un runtime e poi Connetti a un runtime esistente.
Seleziona il runtime che hai avviato e fai clic su Connetti.
Fai clic su Esegui cella a sinistra di ogni cella di codice per eseguire le celle del blocco note.
Il notebook contiene celle di codice e testo che descrivono ogni blocco di codice. L'esecuzione di una cella di codice esegue i relativi comandi e mostra un output. Puoi eseguire le celle in ordine o eseguire singole celle in base alle esigenze.
Per ulteriori informazioni su Vertex AI Colab Enterprise, consulta la documentazione di Colab Enterprise.
Visualizzare le metriche Prometheus per il cluster
Il cluster GKE è configurato con Google Cloud Managed Service per Prometheus, che consente la raccolta delle metriche nel formato Prometheus. Questo servizio fornisce una soluzione completamente gestita per il monitoraggio e l'invio di avvisi, consentendo la raccolta, lo stoccaggio e l'analisi delle metriche del cluster e delle sue applicazioni.
Il seguente diagramma mostra in che modo Prometheus raccoglie le metriche per il cluster:
Il cluster privato GKE nel diagramma contiene i seguenti componenti:
- Weaviable pod che espongono le metriche sul percorso
/metrics
e sulla porta2112
. - Raccoglitori basati su Prometheus che elaborano le metriche dei pod Weaviate.
- Una risorsa PodMonitoring che invia le metriche a Cloud Monitoring.
Per esportare e visualizzare le metriche, segui questi passaggi:
Crea la
PodMonitoring
risorsa per eseguire lo scraping delle metriche in base alabelSelector
:kubectl apply -n weaviate -f manifests/03-prometheus-metrics/pod-monitoring.yaml
Il manifest
pod-monitoring.yaml
descrive la risorsaPodMonitoring
:Per importare una dashboard di Cloud Monitoring personalizzata con le configurazioni definite in
dashboard.json
:gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
Una volta eseguito correttamente il comando, vai alle dashboard di Cloud Monitoring:
Dall'elenco delle dashboard, apri la dashboard
Weaviate Overview
. Potrebbe essere necessario un po' di tempo per raccogliere e visualizzare le metriche. La dashboard mostra la quantità di latenza di Shard, Vettori e operazioni
Esegui la pulizia
Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.
Elimina il progetto
Il modo più semplice per evitare la fatturazione è eliminare il progetto che hai creato per questo tutorial.
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID
Se hai eliminato il progetto, la pulizia è completata. Se non hai eliminato progetto, procedi con l'eliminazione delle singole risorse.
Elimina singole risorse
Imposta le variabili di ambiente.
export PROJECT_ID=${PROJECT_ID} export KUBERNETES_CLUSTER_PREFIX=weaviate export REGION=us-central1
Esegui il comando
terraform destroy
:export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token) terraform -chdir=terraform/FOLDER destroy \ -var project_id=${PROJECT_ID} \ -var region=${REGION} \ -var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Sostituisci
FOLDER
congke-autopilot
ogke-standard
, a seconda del tipo di cluster GKE che hai creato.Quando richiesto, digita
yes
.Trova tutti i dischi scollegati:
export disk_list=$(gcloud compute disks list --filter="-users:* AND labels.name=${KUBERNETES_CLUSTER_PREFIX}-cluster" --format "value[separator=|](name,region)")
Elimina i dischi:
for i in $disk_list; do disk_name=$(echo $i| cut -d'|' -f1) disk_region=$(echo $i| cut -d'|' -f2|sed 's|.*/||') echo "Deleting $disk_name" gcloud compute disks delete $disk_name --region $disk_region --quiet done
Elimina il repository GitHub:
rm -r ~/kubernetes-engine-samples/
Passaggi successivi
- Esplora Weaviate su GKE Marketplace.
- Scopri le best practice per il deployment dei database su GKE.
- Scopri le soluzioni per l'esecuzione di carichi di lavoro con utilizzo intensivo di dati con GKE.