Panduan ini menunjukkan cara men-deploy cluster database vektor Qdrant di Google Kubernetes Engine (GKE).
Database vektor adalah penyimpanan data yang dirancang khusus untuk mengelola dan menelusuri kumpulan besar vektor berdimensi tinggi. Vektor ini mewakili data seperti teks, gambar, audio, video, atau data apa pun yang dapat dienkode secara numerik. Tidak seperti database tradisional yang mengandalkan pencocokan persis, database vektor berspesialisasi dalam menemukan item serupa atau mengidentifikasi pola dalam set data yang besar. Karakteristik ini menjadikan Qdrant sebagai pilihan yang sesuai untuk berbagai aplikasi, termasuk pencocokan berbasis semantik atau jaringan saraf, penelusuran berfacet, dan lainnya. Qdrant tidak hanya berfungsi sebagai database vektor, tetapi juga sebagai mesin telusur kemiripan vektor.
Tutorial ini ditujukan untuk administrator dan arsitek platform cloud, engineer ML, dan profesional MLOps (DevOps) yang tertarik untuk men-deploy cluster database Qdrant di GKE.
Manfaat
Qdrant menawarkan manfaat berikut:
- Berbagai library untuk berbagai bahasa pemrograman dan API terbuka untuk berintegrasi dengan layanan lain.
- Penskalaan horizontal, serta dukungan untuk sharding dan replikasi yang menyederhanakan penskalaan dan ketersediaan tinggi.
- Dukungan container dan Kubernetes yang memungkinkan deployment dan pengelolaan di lingkungan modern berbasis cloud.
- Payload fleksibel dengan pemfilteran lanjutan untuk menyesuaikan kriteria penelusuran secara akurat.
- Berbagai opsi kuantisasi dan pengoptimalan lainnya untuk mengurangi biaya infrastruktur dan meningkatkan performa.
Tujuan
Dalam tutorial ini, Anda akan mempelajari cara:
- Merencanakan dan men-deploy infrastruktur GKE untuk Qdrant.
- Deploy operator StatefulHA untuk memastikan ketersediaan tinggi Qdrant.
- Men-deploy dan mengonfigurasi cluster Qdrant.
- Upload set data demo dan jalankan kueri penelusuran sederhana.
- Mengumpulkan metrik dan menjalankan dasbor.
Arsitektur deployment
Arsitektur ini menyiapkan cluster GKE yang fault-tolerant dan skalabel untuk Qdrant di beberapa zona ketersediaan, sehingga memastikan waktu beroperasi dan ketersediaan dengan update berkelanjutan dan gangguan minimal. Hal ini mencakup penggunaan operator StatefulHA untuk pengelolaan failover yang efisien. Untuk mengetahui informasi selengkapnya, lihat Cluster regional.
Diagram arsitektur
Diagram berikut menunjukkan cluster Qdrant yang berjalan di beberapa node dan zona dalam cluster GKE:
Dalam arsitektur ini, StatefulSet
Qdrant di-deploy ke tiga node di tiga zona yang berbeda.
- Anda dapat mengontrol cara GKE mendistribusikan Pod di seluruh node dengan mengonfigurasi aturan afinitas dan batasan penyebaran topologi Pod yang diperlukan dalam file nilai diagram Helm.
- Jika satu zona gagal, GKE akan menjadwalkan ulang Pod di node baru berdasarkan konfigurasi yang direkomendasikan.
Untuk persistensi data, arsitektur dalam tutorial ini memiliki karakteristik berikut:
- StorageClass ini menggunakan disk SSD regional (StorageClass
regional-pd
kustom) untuk mempertahankan data. Sebaiknya gunakan disk SSD regional untuk database karena latensinya yang rendah dan IOPS-nya yang tinggi. - Semua data disk direplikasi antara zona utama dan sekunder di region, sehingga meningkatkan toleransi terhadap potensi kegagalan zona.
Biaya
Dalam dokumen ini, Anda menggunakan komponen Google Cloud yang dapat ditagih berikut:
Untuk membuat perkiraan biaya berdasarkan proyeksi penggunaan Anda,
gunakan kalkulator harga.
Setelah menyelesaikan tugas yang dijelaskan dalam dokumen ini, Anda dapat menghindari penagihan berkelanjutan dengan menghapus resource yang Anda buat. Untuk mengetahui informasi selengkapnya, lihat Pembersihan.
Sebelum memulai
Dalam tutorial ini, Anda akan menggunakan Cloud Shell untuk menjalankan perintah. Cloud Shell adalah lingkungan shell untuk mengelola resource yang dihosting di Google Cloud. Cloud Shell telah diinstal dengan alat command line Google Cloud CLI, kubectl, Helm, dan Terraform. Jika tidak menggunakan Cloud Shell, Anda harus menginstal Google Cloud CLI.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Buat atau pilih project Google Cloud.
-
Membuat project Google Cloud:
gcloud projects create PROJECT_ID
Ganti
PROJECT_ID
dengan nama untuk project Google Cloud yang Anda buat. -
Pilih project Google Cloud yang Anda buat:
gcloud config set project PROJECT_ID
Ganti
PROJECT_ID
dengan nama project Google Cloud Anda.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Aktifkan API Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com - Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Buat atau pilih project Google Cloud.
-
Membuat project Google Cloud:
gcloud projects create PROJECT_ID
Ganti
PROJECT_ID
dengan nama untuk project Google Cloud yang Anda buat. -
Pilih project Google Cloud yang Anda buat:
gcloud config set project PROJECT_ID
Ganti
PROJECT_ID
dengan nama project Google Cloud Anda.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Aktifkan API Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com -
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/storage.objectViewer, roles/container.admin, roles/iam.serviceAccountAdmin, roles/compute.admin, roles/gkebackup.admin, roles/monitoring.viewer
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
Menyiapkan lingkungan Anda
Untuk menyiapkan lingkungan Anda dengan Cloud Shell, ikuti langkah-langkah berikut:
Tetapkan variabel lingkungan untuk project, region, dan awalan resource cluster Kubernetes:
Untuk tujuan tutorial ini, gunakan region
us-central1
untuk membuat resource deployment Anda.export PROJECT_ID=PROJECT_ID export KUBERNETES_CLUSTER_PREFIX=qdrant export REGION=us-central1
PROJECT_ID
dengan ID project Google Cloud Anda
Periksa versi Helm:
helm version
Update versi jika versinya lebih lama dari 3.13:
curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
Clone repositori kode contoh dari GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Buka direktori
qdrant
untuk mulai membuat resource deployment:cd kubernetes-engine-samples/databases/qdrant
Membuat infrastruktur cluster
Bagian ini melibatkan pengoperasian skrip Terraform untuk membuat cluster GKE regional pribadi yang sangat tersedia untuk men-deploy database Qdrant Anda.
Anda dapat memilih untuk men-deploy Qdrant menggunakan cluster Standard atau Autopilot. Masing-masing memiliki kelebihannya sendiri dan model penetapan harga yang berbeda.
Autopilot
Diagram berikut menunjukkan cluster GKE regional Autopilot yang di-deploy ke tiga zona yang berbeda.
Untuk men-deploy infrastruktur cluster, jalankan perintah berikut di Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Variabel berikut diganti saat runtime:
GOOGLE_OAUTH_ACCESS_TOKEN
: Diganti dengan token akses yang diambil oleh perintahgcloud auth print-access-token
untuk mengautentikasi interaksi dengan berbagai Google Cloud APIPROJECT_ID
,REGION
, danKUBERNETES_CLUSTER_PREFIX
adalah variabel lingkungan yang ditentukan di bagian Menyiapkan lingkungan dan ditetapkan ke variabel baru yang relevan untuk cluster Autopilot yang Anda buat.
Saat diminta, ketik yes
.
Outputnya mirip dengan hal berikut ini:
...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"
Terraform membuat resource berikut:
- Jaringan VPC kustom dan subnet pribadi untuk node Kubernetes.
- Cloud Router untuk mengakses internet melalui Penafsiran Alamat Jaringan (NAT).
- Cluster GKE pribadi di region
us-central1
. ServiceAccount
dengan izin logging dan pemantauan untuk cluster.- Konfigurasi Google Cloud Managed Service for Prometheus untuk pemantauan dan pemberitahuan cluster.
Standard
Diagram berikut menunjukkan cluster GKE regional pribadi Standar yang di-deploy ke tiga zona yang berbeda.
Untuk men-deploy infrastruktur cluster, jalankan perintah berikut di Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Variabel berikut diganti saat runtime:
GOOGLE_OAUTH_ACCESS_TOKEN
diganti dengan token akses yang diambil oleh perintahgcloud auth print-access-token
untuk mengautentikasi interaksi dengan berbagai Google Cloud API.PROJECT_ID
,REGION
, danKUBERNETES_CLUSTER_PREFIX
adalah variabel lingkungan yang ditentukan di bagian Menyiapkan lingkungan dan ditetapkan ke variabel baru yang relevan untuk cluster Standar yang Anda buat.
Saat diminta, ketik yes
. Anda mungkin perlu menunggu beberapa menit agar perintah ini selesai
dan cluster akan menampilkan status siap.
Outputnya mirip dengan hal berikut ini:
...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"
Terraform membuat resource berikut:
- Jaringan VPC kustom dan subnet pribadi untuk node Kubernetes.
- Cloud Router untuk mengakses internet melalui Penafsiran Alamat Jaringan (NAT).
- Cluster GKE pribadi di region
us-central1
dengan penskalaan otomatis diaktifkan (satu hingga dua node per zona). ServiceAccount
dengan izin logging dan pemantauan untuk cluster.- Konfigurasi Google Cloud Managed Service for Prometheus untuk pemantauan dan pemberitahuan cluster.
Hubungkan ke cluster
Konfigurasi kubectl
untuk mengambil kredensial dan berkomunikasi dengan cluster GKE baru Anda:
gcloud container clusters get-credentials \
${KUBERNETES_CLUSTER_PREFIX}-cluster --region ${REGION}
Men-deploy database Qdrant ke cluster Anda
Dalam tutorial ini, Anda akan men-deploy database Qdrant (dalam mode terdistribusi) dan operator HA Stateful ke cluster GKE Anda menggunakan diagram Helm.
Deployment akan membuat cluster GKE dengan konfigurasi berikut:
- Tiga replika node Qdrant.
- Toleransi, afinitas node, dan batasan penyebaran topologi dikonfigurasi untuk memastikan distribusi yang tepat di seluruh node Kubernetes. Hal ini memanfaatkan kumpulan node dan zona ketersediaan yang berbeda.
- Volume RePD dengan jenis disk SSD disediakan untuk penyimpanan data.
- Operator HA Stateful digunakan untuk mengelola proses failover dan memastikan ketersediaan tinggi.
- Untuk autentikasi, database membuat secret Kubernetes yang berisi kunci API.
Untuk menggunakan diagram Helm guna men-deploy database Qdrant, ikuti langkah-langkah berikut:
Aktifkan add-on StatefulHA:
Autopilot
GKE otomatis mengaktifkan add-on
StatefulHA
saat membuat cluster.Standard
Jalankan perintah berikut:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=StatefulHA=ENABLED
Mungkin perlu waktu 15 menit agar perintah ini selesai dan cluster menampilkan status siap.
Tambahkan repositori Helm Chart database Qdrant sebelum Anda dapat men-deploynya di cluster GKE:
helm repo add qdrant https://qdrant.github.io/qdrant-helm
Buat namespace
qdrant
untuk database:kubectl create ns qdrant
Terapkan manifes untuk membuat disk SSD persisten regional
StorageClass
:kubectl apply -n qdrant -f manifests/01-regional-pd/regional-pd.yaml
Manifes
regional-pd.yaml
menjelaskan disk SSD persistenStorageClass
:Deploy configmap Kubernetes dengan konfigurasi sidecar
metrics
dan cluster Qdrant menggunakan Helm:kubectl apply -n qdrant -f manifests/03-prometheus-metrics/metrics-cm.yaml helm install qdrant-database qdrant/qdrant -n qdrant \ -f manifests/02-values-file/values.yaml
Manifes
metrics-cm.yaml
menjelaskanmetrics
sidecarConfigMap
:Manifes
values.yaml
menjelaskan konfigurasi cluster Qdrant :Konfigurasi ini mengaktifkan mode cluster, yang memungkinkan Anda menyiapkan cluster Qdrant yang sangat tersedia dan terdistribusi.
Tambahkan label ke statefulset Qdrant:
kubectl label statefulset qdrant-database examples.ai.gke.io/source=qdrant-guide -n qdrant
Deploy load balancer internal untuk mengakses database Qdrant yang berjalan di VPC yang sama dengan cluster GKE Anda:
kubectl apply -n qdrant -f manifests/02-values-file/ilb.yaml
Manifes
ilb.yaml
menjelaskan LayananLoadBalancer
:Periksa status deployment:
helm ls -n qdrant
Outputnya mirip dengan yang berikut ini, jika database
qdrant
berhasil di-deploy:NAME NAMESPACE REVISION UPDATED STATUS CHART APP VERSION qdrant-database qdrant 1 2024-02-06 20:21:15.737307567 +0000 UTC deployed qdrant-0.7.6 v1.7.4
Tunggu GKE memulai workload yang diperlukan:
kubectl wait pods -l app.kubernetes.io/instance=qdrant-database --for condition=Ready --timeout=300s -n qdrant
Pemrosesan perintah ini mungkin memerlukan waktu beberapa menit hingga selesai.
Setelah GKE memulai workload, pastikan GKE telah membuat workload Qdrant:
kubectl get pod,svc,statefulset,pdb,secret -n qdrant
Mulai resource
HighAvailabilityApplication
(HAA) untuk Qdrant:kubectl apply -n qdrant -f manifests/01-regional-pd/ha-app.yaml
Manifes
ha-app.yaml
menjelaskan resourceHighAvailabilityApplication
:Resource GKE berikut dibuat untuk cluster Qdrant:
StatefulSet
Qdrant yang mengontrol tiga replika Pod.A PodDisruptionBudget
, yang memastikan maksimum satu replika tidak tersedia.- Layanan
qdrant-database
, yang mengekspos port Qdrant untuk koneksi masuk dan replikasi antar-node. - Layanan
qdrant-database-headless
, yang menyediakan daftar Pod Qdrant yang berjalan. - Secret
qdrant-database-apikey
, yang memfasilitasi koneksi database yang aman. - Pod operator HA stateful dan resource
HighlyAvailableApplication
, yang secara aktif memantau aplikasi Qdrant. ResourceHighlyAvailableApplication
menentukan aturan failover yang akan diterapkan ke Qdrant.
Untuk memeriksa apakah aturan failover diterapkan, jelaskan resource dan konfirmasi
Status: Message: Application is protected
.kubectl describe highavailabilityapplication qdrant-database -n qdrant
Outputnya mirip dengan hal berikut ini:
Status: Conditions: Last Transition Time: 2023-11-30T09:54:52Z Message: Application is protected Observed Generation: 1 Reason: ApplicationProtected Status: True Type: Protected
Mengupload set data dan menjalankan kueri penelusuran dengan Jupyter Notebook
Qdrant mengatur vektor dan payload dalam koleksi. Embedding vektor adalah teknik yang merepresentasikan kata atau entitas sebagai vektor numerik sekaligus mempertahankan hubungan semantiknya. Hal ini penting untuk penelusuran kesamaan karena memungkinkan penemuan kesamaan berdasarkan makna, bukan pencocokan persis, sehingga tugas seperti sistem penelusuran dan rekomendasi menjadi lebih efektif dan bernuansa.
Bagian ini menunjukkan cara mengupload Vektor ke Koleksi Qdrant baru dan menjalankan kueri penelusuran.
Dalam contoh ini, Anda menggunakan set data dari file CSV yang berisi daftar buku dalam berbagai genre. Qdrant akan berfungsi sebagai mesin telusur, dan Pod notebook Jupyter yang Anda buat akan berfungsi sebagai klien yang mengkueri database Qdrant.
Buat ConfigMap
books-dataset
dandemo-app
, lalu deploy notebook Jupyter:kubectl create -n qdrant configmap books-dataset --from-file=manifests/04-notebook/dataset.csv kubectl create -n qdrant configmap notebook --from-file=manifests/04-notebook/vector-database.ipynb kubectl apply -n qdrant -f manifests/04-notebook/jupyter.yaml
- Secret bernama
qdrant-apikey
yang dibuat sebelumnya di-mount ke Pod klien sebagai variabel lingkungan bernamaAPIKEY
. - ConfigMap
books-dataset
berisi filecsv
dengan data buku untuk koleksi Qdrant - ConfigMap
notebook
berisi notebook Jupyter untuk membuat kumpulan Qdrant daribooks-dataset
.
- Secret bernama
Tunggu hingga GKE memulai Pod Jupyter:
kubectl wait pods -l app=jupyter-notebook --for condition=Ready --timeout=300s -n qdrant
Buka URL ini dan klik file vector-database.ipynb. Tekan Run -> Run all cells. Jupyter akan mengeksekusi semua kode dan menjalankan kueri penelusuran.
Kueri ini melakukan penelusuran semantik terhadap koleksi
my_books
Anda di Qdrant, mengambil maksimum dua hasil dengan skor kecocokan tertinggi yang relevan dengan teks kueri Anda.Fungsi ini mencetak setiap hasil yang dipisahkan oleh baris tanda hubung, dalam format berikut :
Title
: Judul bukuAuthor
: Penulis bukuDescription
: Seperti yang disimpan di kolom metadatadescription
dokumen AndaPublished
: Tanggal publikasi bukuScore
: Skor relevansi Qdrant
Outputnya mirip dengan hal berikut ini:
Title: Romeo and Juliet Author: William Shakespeare, Paul Werstine (Editor), Barbara A. Mowat (Editor), Paavo Emil Cajander (Translator) Description: In Romeo and Juliet, Shakespeare creates a violent world, in which two young people fall in love. It is not simply that their families disapprove; the Montagues and the Capulets are engaged in a blood feud.In this death-filled setting, the movement from love at first sight to the lovers' final union in death seems almost inevitable. And yet, this play set in an extraordinary world has become the quintessential story of young love. In part because of its exquisite language, it is easy to respond as if it were about all young lovers. Published: 01/01/04 Score: 0.8935013 ----- Title: The Unbearable Lightness of Being Author: Milan Kundera, Michael Henry Heim (Translator) Description: In The Unbearable Lightness of Being, Milan Kundera tells the story of a young woman in love with a man torn between his love for her and his incorrigible womanizing and one of his mistresses and her humbly faithful lover. This magnificent novel juxtaposes geographically distant places, brilliant and playful reflections, and a variety of styles, to take its place as perhaps the major achievement of one of the world's truly great writers. Published: 10/27/09 Score: 0.8931863 -----
Melihat metrik Prometheus untuk cluster Anda
Cluster GKE dikonfigurasi dengan Google Cloud Managed Service for Prometheus, yang memungkinkan pengumpulan metrik dalam format Prometheus. Layanan ini menyediakan solusi terkelola sepenuhnya untuk pemantauan dan pemberitahuan, yang memungkinkan pengumpulan, penyimpanan, dan analisis metrik dari cluster dan aplikasinya.
Diagram berikut menunjukkan cara Prometheus mengumpulkan metrik untuk cluster Anda:
Cluster pribadi GKE dalam diagram berisi komponen berikut:
- Pod Qdrant yang mengekspos metrik di jalur
/
dan port80
. Metrik ini disediakan oleh penampung sidecar bernamametrics
. - Pengumpul berbasis Prometheus yang memproses metrik dari Pod Qdrant.
- Resource PodMonitoring yang mengirim metrik ke Cloud Monitoring.
Untuk mengekspor dan melihat metrik, ikuti langkah-langkah berikut:
Buat resource
PodMonitoring
untuk meng-scrap metrik menurutlabelSelector
:kubectl apply -n qdrant -f manifests/03-prometheus-metrics/pod-monitoring.yaml
Manifes
pod-monitoring.yaml
menjelaskan resourcePodMonitoring
:Buat dasbor Cloud Monitoring dengan konfigurasi yang ditentukan di
dashboard.json
:gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
Setelah perintah berhasil berjalan, buka Dasbor Cloud Monitoring:
Dari daftar dasbor, buka dasbor
Qdrant Overview
. Mungkin perlu waktu 1-2 menit untuk mengumpulkan dan menampilkan metrik.Dasbor menampilkan jumlah metrik utama:
- Koleksi
- Vektor tersemat
- Operasi tertunda
- Node yang berjalan
Mencadangkan konfigurasi cluster
Fitur Pencadangan untuk GKE memungkinkan Anda menjadwalkan pencadangan reguler untuk seluruh konfigurasi cluster GKE, termasuk workload yang di-deploy dan datanya.
Dalam tutorial ini, Anda akan mengonfigurasi rencana pencadangan untuk cluster GKE guna melakukan pencadangan semua workload, termasuk Secret dan Volume, setiap hari pukul 03.00. Untuk memastikan pengelolaan penyimpanan yang efisien, pencadangan yang lebih lama dari tiga hari akan otomatis dihapus.
Untuk mengonfigurasi Rencana pencadangan, ikuti langkah-langkah berikut:
Aktifkan fitur Pencadangan untuk GKE untuk cluster Anda:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=BackupRestore=ENABLED
Buat rencana cadangan dengan jadwal harian untuk semua namespace dalam cluster:
gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \ --project=${PROJECT_ID} \ --location=${REGION} \ --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \ --all-namespaces \ --include-secrets \ --include-volume-data \ --cron-schedule="0 3 * * *" \ --backup-retain-days=3
Perintah ini menggunakan variabel lingkungan yang relevan saat runtime.
Format nama cluster relatif terhadap project dan region Anda sebagai berikut:
projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
Saat diminta, ketik
y.
Outputnya mirip dengan berikut ini:Create request issued for: [qdrant-cluster-backup] Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
Penyelesaian operasi ini mungkin memerlukan waktu beberapa menit. Setelah eksekusi selesai, output-nya akan mirip dengan berikut ini:
Created backup plan [qdrant-cluster-backup].
Anda dapat melihat rencana pencadangan
qdrant-cluster-backup
yang baru dibuat tercantum di konsol Backup untuk GKE.
Jika Anda ingin memulihkan konfigurasi cadangan tersimpan, lihat Memulihkan cadangan.
Pembersihan
Agar tidak perlu membayar biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, hapus project yang berisi resource tersebut, atau simpan project dan hapus setiap resource.
Menghapus project
Cara termudah untuk menghindari penagihan adalah dengan menghapus project yang Anda buat untuk tutorial ini.
Menghapus project Google Cloud:
gcloud projects delete PROJECT_ID
Jika Anda menghapus project ini, berarti pembersihan telah selesai. Jika Anda tidak menghapus project, lanjutkan untuk menghapus resource individual.
Menghapus resource satu per satu
Menetapkan variabel lingkungan.
export PROJECT_ID=${PROJECT_ID} export KUBERNETES_CLUSTER_PREFIX=qdrant export REGION=us-central1
Jalankan perintah
terraform destroy
:export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token) terraform -chdir=terraform/FOLDER destroy \ -var project_id=${PROJECT_ID} \ -var region=${REGION} \ -var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Ganti
FOLDER
dengangke-autopilot
ataugke-standard
, bergantung pada jenis cluster GKE yang Anda buat.Saat diminta, ketik
yes
.Temukan semua disk yang tidak terpasang:
export disk_list=$(gcloud compute disks list --filter="-users:* AND labels.name=${KUBERNETES_CLUSTER_PREFIX}-cluster" --format "value[separator=|](name,region)")
Hapus disk:
for i in $disk_list; do disk_name=$(echo $i| cut -d'|' -f1) disk_region=$(echo $i| cut -d'|' -f2|sed 's|.*/||') echo "Deleting $disk_name" gcloud compute disks delete $disk_name --region $disk_region --quiet done
Hapus repositori GitHub:
rm -r ~/kubernetes-engine-samples/
Langkah selanjutnya
- Jelajahi Qdrant di marketplace GKE.
- Pelajari software open source Qdrant.
- Coba operator Qdrant yang menawarkan pengelolaan kunci API, dukungan TLS dengan pengelolaan sertifikat, dan penjadwalan pencadangan.
- Pelajari praktik terbaik untuk men-deploy database di GKE.
- Temukan solusi untuk menjalankan workload yang memproses banyak data dengan GKE.