Men-deploy database vektor Qdrant di GKE


Panduan ini menunjukkan cara men-deploy database vektor Qdrant cluster di Google Kubernetes Engine (GKE).

Database vektor adalah penyimpanan data yang dirancang khusus untuk dikelola dan mencari melalui kumpulan besar vektor berdimensi tinggi. Semua vektor ini merepresentasikan data seperti teks, gambar, audio, video, atau data apa pun yang dapat di dienkode. Tidak seperti {i>database<i} tradisional yang mengandalkan padanan persis, {i>database<i} vektor berspesialisasi dalam menemukan item serupa atau mengidentifikasi pola dalam {i>dataset<i} yang sangat besar. Karakteristik ini menjadikan Qdrant pilihan yang cocok untuk berbagai aplikasi, termasuk jaringan neural atau pencocokan berbasis semantik, penelusuran {i>faceted<i}, dan banyak lagi. Qdrant tidak hanya berfungsi sebagai {i>database<i} vektor tetapi juga sebagai mesin telusur kesamaan vektor.

Tutorial ini ditujukan bagi administrator dan arsitek platform cloud, ML engineer, dan MLOps (DevOps) profesional yang tertarik untuk men-deploy database Qdrant cluster di GKE.

Manfaat

Qdrant menawarkan manfaat berikut:

  • Berbagai library untuk berbagai bahasa pemrograman dan API terbuka untuk berintegrasi dengan layanan lain.
  • Penskalaan horizontal, dan dukungan untuk sharding dan replikasi yang menyederhanakan penskalaan, dan ketersediaan tinggi.
  • Dukungan container dan Kubernetes yang memungkinkan deployment dan pengelolaan di lingkungan modern lingkungan berbasis cloud.
  • Payload fleksibel dengan pemfilteran lanjutan untuk menyesuaikan kriteria pencarian dengan tepat.
  • Berbagai opsi kuantisasi dan pengoptimalan lainnya untuk mengurangi biaya infrastruktur dan meningkatkan performa.

Tujuan

Dalam tutorial ini, Anda akan mempelajari cara:

  • Rencanakan dan deploy infrastruktur GKE untuk Qdrant.
  • Men-deploy operator StatefulHA untuk memastikan ketersediaan tinggi Qdrant.
  • Men-deploy dan mengonfigurasi cluster Qdrant.
  • Upload set data demo dan jalankan kueri penelusuran sederhana.
  • Mengumpulkan metrik dan menjalankan dasbor.

Arsitektur deployment

Arsitektur ini menyiapkan GKE yang skalabel dan fault-tolerant untuk Qdrant di beberapa zona ketersediaan, sehingga memastikan waktu beroperasi dan ketersediaan tinggi dengan update berkelanjutan dan gangguan minimal. Pendekatan ini mencakup penggunaan Operator StatefulHA untuk pengelolaan failover yang efisien. Untuk informasi selengkapnya, lihat Cluster regional.

Diagram arsitektur

Diagram berikut menunjukkan cluster Qdrant yang berjalan pada beberapa node dan zona di cluster GKE:

Arsitektur deployment Qdrant

Dalam arsitektur ini, StatefulSet Qdrant di-deploy di tiga node di tiga zona berbeda.

  • Anda dapat mengontrol cara GKE mendistribusikan Pod di seluruh node dengan mengonfigurasi aturan afinitas dan batasan topologi Pod yang diperlukan dalam {i>file<i} nilai bagan Helm.
  • Jika satu zona gagal, GKE akan menjadwalkan ulang Pod pada node baru berdasarkan rekomendasi konfigurasi Anda.

Untuk persistensi data, arsitektur dalam tutorial ini memiliki karakteristik berikut:

  • Properti ini menggunakan region regional Disk SSD (regional-pd StorageClass kustom) untuk mempertahankan data. Kami menyarankan disk SSD regional untuk database karena latensinya yang rendah dan IOPS yang tinggi.
  • Semua data {i>disk<i} direplikasi di antara zona primer dan sekunder di region ini, meningkatkan toleransi terhadap kegagalan zona potensial.

Biaya

Dalam dokumen ini, Anda menggunakan komponen Google Cloud yang dapat ditagih berikut:

Untuk membuat perkiraan biaya berdasarkan proyeksi penggunaan Anda, gunakan kalkulator harga. Pengguna baru Google Cloud mungkin memenuhi syarat untuk mendapatkan uji coba gratis.

Setelah menyelesaikan tugas yang dijelaskan dalam dokumen ini, Anda dapat menghindari penagihan berkelanjutan dengan menghapus resource yang Anda buat. Untuk mengetahui informasi selengkapnya, lihat Pembersihan.

Sebelum memulai

Dalam tutorial ini, Anda menggunakan Cloud Shell untuk menjalankan perintah. Cloud Shell adalah lingkungan shell untuk mengelola resource yang dihosting di Google Cloud. Aplikasi ini telah diinstal lebih dulu dengan Google Cloud CLI, kubectl, Helm dan Terraform baris perintah. Jika tidak menggunakan Cloud Shell, Anda harus menginstal Google Cloud CLI.

  1. Login ke akun Google Cloud Anda. Jika Anda baru menggunakan Google Cloud, buat akun untuk mengevaluasi performa produk kami dalam skenario dunia nyata. Pelanggan baru juga mendapatkan kredit gratis senilai $300 untuk menjalankan, menguji, dan men-deploy workload.
  2. Menginstal Google Cloud CLI.
  3. Untuk initialize gcloud CLI, jalankan perintah berikut:

    gcloud init
  4. Buat atau pilih project Google Cloud.

    • Membuat project Google Cloud:

      gcloud projects create PROJECT_ID

      Ganti PROJECT_ID dengan nama untuk project Google Cloud yang Anda buat.

    • Pilih project Google Cloud yang Anda buat:

      gcloud config set project PROJECT_ID

      Ganti PROJECT_ID dengan nama project Google Cloud Anda.

  5. Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.

  6. Aktifkan API Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE:

    gcloud services enable cloudresourcemanager.googleapis.com compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com
  7. Menginstal Google Cloud CLI.
  8. Untuk initialize gcloud CLI, jalankan perintah berikut:

    gcloud init
  9. Buat atau pilih project Google Cloud.

    • Membuat project Google Cloud:

      gcloud projects create PROJECT_ID

      Ganti PROJECT_ID dengan nama untuk project Google Cloud yang Anda buat.

    • Pilih project Google Cloud yang Anda buat:

      gcloud config set project PROJECT_ID

      Ganti PROJECT_ID dengan nama project Google Cloud Anda.

  10. Pastikan penagihan telah diaktifkan untuk project Google Cloud Anda.

  11. Aktifkan API Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE:

    gcloud services enable cloudresourcemanager.googleapis.com compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com
  12. Berikan peran ke Akun Google Anda. Jalankan perintah berikut satu kali untuk setiap peran IAM berikut: role/storage.objectViewer, roles/container.admin, roles/iam.serviceAccountAdmin, roles/compute.admin, roles/gkebackup.admin, roles/monitoring.viewer

    gcloud projects add-iam-policy-binding PROJECT_ID --member="user:EMAIL_ADDRESS" --role=ROLE
    • Ganti PROJECT_ID dengan project ID Anda.
    • Ganti EMAIL_ADDRESS dengan alamat email Anda.
    • Ganti ROLE dengan setiap peran individual.

Menyiapkan lingkungan Anda

Untuk menyiapkan lingkungan Anda dengan Cloud Shell, ikuti langkah-langkah berikut:

  1. Menetapkan variabel lingkungan untuk project, region, dan Kubernetes awalan resource cluster:

    Untuk tujuan tutorial ini, gunakan region us-central1 untuk membuat deployment Anda Google Cloud Platform.

    export PROJECT_ID=PROJECT_ID
    export KUBERNETES_CLUSTER_PREFIX=qdrant
    export REGION=us-central1
    
    • PROJECT_ID dengan ID project Google Cloud Anda
  2. Periksa versi Helm:

    helm version
    

    Update versi jika lebih lama dari 3.13:

    curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
    
  3. Clone repositori kode contoh dari GitHub:

    git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
    
  4. Buka direktori qdrant untuk mulai membuat resource deployment:

    cd kubernetes-engine-samples/databases/qdrant
    

Membuat infrastruktur cluster

Bagian ini melibatkan eksekusi skrip Terraform untuk membuat skrip pribadi yang sangat tersedia, cluster GKE regional untuk men-deploy database Qdrant Anda.

Anda dapat memilih untuk men-deploy Qdrant menggunakan cluster Standar atau Autopilot. Masing-masing memiliki kelebihan dan model harga yang berbeda.

Autopilot

Diagram berikut menunjukkan cluster GKE regional Autopilot yang di-deploy di tiga zona berbeda.

Cluster GKE Autopilot

Untuk men-deploy infrastruktur cluster, jalankan perintah berikut di Cloud Shell:

export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}

Variabel berikut diganti saat runtime:

  • GOOGLE_OAUTH_ACCESS_TOKEN: Diganti dengan token akses yang diambil oleh Perintah gcloud auth print-access-token untuk mengautentikasi interaksi dengan berbagai Google Cloud API
  • PROJECT_ID, REGION, dan KUBERNETES_CLUSTER_PREFIX adalah lingkungannya variabel yang ditentukan di bagian Menyiapkan lingkungan Anda dan ditetapkan ke variabel baru yang relevan untuk cluster Autopilot yang Anda buat.

Saat diminta, ketik yes.

Outputnya mirip dengan hal berikut ini:

...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.

Outputs:

kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"

Terraform membuat resource berikut:

  • Jaringan VPC kustom dan subnet pribadi untuk node Kubernetes.
  • Cloud Router untuk mengakses internet melalui Penafsiran Alamat Jaringan (NAT).
  • Cluster GKE pribadi di region us-central1.
  • ServiceAccount dengan izin logging dan pemantauan untuk cluster.
  • konfigurasi Google Cloud Managed Service for Prometheus untuk pemantauan dan pemberitahuan cluster.

Standard

Diagram berikut menunjukkan cluster GKE regional pribadi Standar yang di-deploy di tiga zona yang berbeda.

Cluster GKE Standard

Untuk men-deploy infrastruktur cluster, jalankan perintah berikut di Cloud Shell:

export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}

Variabel berikut diganti saat runtime:

  • GOOGLE_OAUTH_ACCESS_TOKEN diganti dengan token akses yang diambil oleh perintah gcloud auth print-access-token untuk mengautentikasi interaksi dengan berbagai Google Cloud API.
  • PROJECT_ID, REGION, dan KUBERNETES_CLUSTER_PREFIX adalah variabel lingkungan yang ditentukan di bagian Menyiapkan lingkungan Anda dan ditetapkan ke lingkungan variabel yang relevan untuk cluster Standar yang Anda buat.

Saat diminta, ketik yes. Mungkin diperlukan waktu beberapa menit hingga perintah ini selesai dan cluster dapat menampilkan status siap.

Outputnya mirip dengan hal berikut ini:

...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.

Outputs:

kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"

Terraform membuat resource berikut:

  • Jaringan VPC kustom dan subnet pribadi untuk node Kubernetes.
  • Cloud Router untuk mengakses internet melalui Penafsiran Alamat Jaringan (NAT).
  • Cluster GKE pribadi di region us-central1 dengan penskalaan otomatis diaktifkan (satu hingga dua node per zona).
  • ServiceAccount dengan izin logging dan pemantauan untuk cluster.
  • Konfigurasi Google Cloud Managed Service for Prometheus untuk pemantauan dan pemberitahuan cluster.

Hubungkan ke cluster

Konfigurasi kubectl untuk mengambil kredensial dan berkomunikasi dengan cluster GKE baru Anda:

gcloud container clusters get-credentials \
    ${KUBERNETES_CLUSTER_PREFIX}-cluster --region ${REGION}

Men-deploy database Qdrant ke cluster Anda

Dalam tutorial ini, Anda akan men-deploy database Qdrant (di mode terdistribusi) dan operator HA Stateful ke cluster cluster GKE Anda menggunakan chart Helm.

Deployment ini membuat cluster GKE dengan konfigurasi berikut:

  • Tiga replika node Qdrant.
  • Toleransi, afinitas node, dan batasan penyebaran topologi dikonfigurasi untuk memastikan distribusi yang tepat di seluruh node Kubernetes. Hal ini memanfaatkan node gabungan, dan zona ketersediaan yang berbeda.
  • Volume RePD dengan jenis disk SSD disediakan untuk penyimpanan data.
  • Operator HA Stateful digunakan untuk mengelola proses failover dan memastikan ketersediaan tinggi.
  • Untuk autentikasi, database membuat rahasia Kubernetes yang berisi kunci API.

Agar dapat menggunakan chart Helm untuk men-deploy database Qdrant, ikuti langkah-langkah berikut:

  1. Aktifkan add-on StatefulHA:

    Autopilot

    GKE secara otomatis mengaktifkan add-on StatefulHA pada saat pembuatan cluster.

    Standard

    Jalankan perintah berikut:

    gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \
        --project=${PROJECT_ID} \
        --region=${REGION} \
        --update-addons=StatefulHA=ENABLED
    

    Mungkin perlu waktu 15 menit untuk menyelesaikan perintah ini dan bagi cluster untuk menampilkan status siap.

  2. Tambahkan repositori Helm Chart database Qdrant sebelum Anda dapat men-deploy-nya di Cluster GKE:

    helm repo add qdrant https://qdrant.github.io/qdrant-helm
    
  3. Buat namespace qdrant untuk database:

    kubectl create ns qdrant
    
  4. Terapkan manifes untuk membuat disk persistent SSD regional StorageClass:

    kubectl apply -n qdrant -f manifests/01-regional-pd/regional-pd.yaml
    

    Manifes regional-pd.yaml menjelaskan disk persistent SSD StorageClass:

    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    allowVolumeExpansion: true
    metadata:
      name: ha-regional
    parameters:
      replication-type: regional-pd
      type: pd-ssd
      availability-class: regional-hard-failover
    provisioner: pd.csi.storage.gke.io
    reclaimPolicy: Retain
    volumeBindingMode: WaitForFirstConsumer
  5. Men-deploy konfigurasi peta Kubernetes dengan konfigurasi file bantuan metrics dan Qdrant cluster menggunakan Helm:

    kubectl apply -n qdrant -f manifests/03-prometheus-metrics/metrics-cm.yaml
    helm install qdrant-database qdrant/qdrant -n qdrant \
    -f manifests/02-values-file/values.yaml
    

    Manifes metrics-cm.yaml menjelaskan file bantuan metrics ConfigMap:

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: nginx-conf
    data:
      default.conf.template: |
        server {
          listen 80;
          location / {
            proxy_pass http://localhost:6333/metrics;
            proxy_http_version 1.1;
            proxy_set_header Host $http_host;
            proxy_set_header api-key ${QDRANT_APIKEY};
            proxy_set_header X-Forwarded-For $remote_addr;
          }
        }

    Manifes values.yaml menjelaskan konfigurasi cluster Qdrant :

    replicaCount: 3
    
    config:
      cluster:
        enabled: true
      storage:
        optimizers:
          deleted_threshold: 0.5
          vacuum_min_vector_number: 1500
          default_segment_number: 2
          max_segment_size_kb: null
          memmap_threshold_kb: null
          indexing_threshold_kb: 25000
          flush_interval_sec: 5
          max_optimization_threads: 1
    
    livenessProbe:
      enabled: true
      initialDelaySeconds: 60
    
    resources:
      limits:
        cpu: "2"
        memory: 4Gi
      requests:
        cpu: "1"
        memory: 4Gi
    
    tolerations:
      - key: "app.stateful/component"
        operator: "Equal"
        value: "qdrant"
        effect: NoSchedule
    
    affinity:
      nodeAffinity:
        preferredDuringSchedulingIgnoredDuringExecution:
        - weight: 1
          preference:
            matchExpressions:
            - key: "app.stateful/component"
              operator: In
              values:
              - "qdrant"
    
    topologySpreadConstraints:
      - maxSkew: 1
        topologyKey: "topology.kubernetes.io/zone"
        whenUnsatisfiable: ScheduleAnyway
        labelSelector:
          matchLabels:
            app.kubernetes.io/name: qdrant
            app.kubernetes.io/instance: qdrant
    
    podDisruptionBudget:
      enabled: true
      maxUnavailable: 1
    
    persistence:
      accessModes: ["ReadWriteOnce"]
      size: 10Gi
      storageClassName: ha-regional
    
    apiKey: true
    
    sidecarContainers:
      - name: metrics
        image: nginx:1.27
        resources:
          requests:
            memory: "128Mi"
            cpu: "250m"
          limits:
            memory: "128Mi"
            cpu: "500m"
        ports:
        - containerPort: 80
        env:
        - name: QDRANT_APIKEY 
          valueFrom:
            secretKeyRef:
              name: qdrant-database-apikey          
              key: api-key
        volumeMounts:
            - name: nginx-conf
              mountPath: /etc/nginx/templates/default.conf.template
              subPath: default.conf.template
              readOnly: true
    additionalVolumes:
      - name: nginx-conf
        configMap:
          name: nginx-conf
          items:
            - key: default.conf.template
              path: default.conf.template 

    Konfigurasi ini mengaktifkan mode cluster, sehingga Anda dapat menyiapkan yang tersedia dan terdistribusi.

  6. Periksa status deployment:

    helm ls -n qdrant
    

    Outputnya serupa dengan berikut ini, jika database qdrant berhasil di-deploy:

    NAME    NAMESPACE       REVISION        UPDATED                                 STATUS          CHART           APP VERSION
    qdrant-database  qdrant          1               2024-02-06 20:21:15.737307567 +0000 UTC deployed        qdrant-0.7.6    v1.7.4
    
  7. Tunggu hingga GKE memulai workload yang diperlukan:

    kubectl wait pods -l app.kubernetes.io/instance=qdrant-database --for condition=Ready --timeout=300s -n qdrant
    

    Perintah ini mungkin memerlukan waktu beberapa menit agar berhasil diselesaikan.

  8. Setelah GKE memulai workload, pastikan GKE telah membuat workload Qdrant:

    kubectl get pod,svc,statefulset,pdb,secret -n qdrant
    
  9. Mulai resource HighAvailabilityApplication (HAA) untuk Qdrant:

    kubectl apply -n qdrant -f manifests/01-regional-pd/ha-app.yaml
    

    Manifes ha-app.yaml menjelaskan resource HighAvailabilityApplication:

    kind: HighAvailabilityApplication
    apiVersion: ha.gke.io/v1
    metadata:
      name: qdrant-database
      namespace: qdrant
    spec:
      resourceSelection:
        resourceKind: StatefulSet
      policy:
        storageSettings:
          requireRegionalStorage: true
        failoverSettings:
          forceDeleteStrategy: AfterNodeUnreachable
          afterNodeUnreachable:
            afterNodeUnreachableSeconds: 20 # 60 seconds total

    Resource GKE berikut dibuat untuk cluster Qdrant:

    • StatefulSet Qdrant yang mengontrol tiga replika Pod.
    • A PodDisruptionBudget, yang memastikan maksimum satu replika yang tidak tersedia.
    • Layanan qdrant-database, mengekspos port Qdrant untuk koneksi masuk dan replikasi antar-node.
    • Layanan qdrant-database-headless, yang menyediakan daftar Qdrant yang berjalan Pod.
    • Rahasia qdrant-database-apikey, yang memfasilitasi koneksi database yang aman.
    • Pod operator HA stateful dan resource HighlyAvailableApplication, yang secara aktif memantau Qdrant aplikasi. Resource HighlyAvailableApplication menentukan aturan failover yang akan diterapkan terhadap Qdrant.
  10. Untuk memeriksa apakah aturan failover diterapkan, deskripsikan resource dan konfirmasi Status: Message: Application is protected.

    kubectl describe highavailabilityapplication qdrant-database -n qdrant
    

    Outputnya mirip dengan hal berikut ini:

    Status:
    Conditions:
        Last Transition Time:  2023-11-30T09:54:52Z
        Message:               Application is protected
        Observed Generation:   1
        Reason:                ApplicationProtected
        Status:                True
        Type:                  Protected
    

Mengunggah {i>dataset<i} dan menjalankan kueri penelusuran dengan Jupyter Notebook

Qdrant mengatur vektor dan payload dalam koleksi. Embedding vektor adalah teknik yang merepresentasikan kata atau entitas sebagai vektor numerik dengan tetap mempertahankan hubungan semantik. Hal ini penting untuk penelusuran kemiripan karena memungkinkan menemukan kesamaan berdasarkan makna dan bukan pada kecocokan persis, membuat tugas seperti pencarian dan sistem rekomendasi yang lebih efektif dan bernuansa.

Bagian ini menampilkan cara mengupload Vektor ke Koleksi Qdrant baru dan menjalankan kueri pencarian sederhana.

Dalam contoh ini, Anda menggunakan {i>dataset<i} dari {i>file<i} CSV yang berisi daftar buku dalam genre yang berbeda. Qdrant akan berfungsi sebagai mesin telusur, dan Jupyter Pod notebook yang Anda buat akan berfungsi sebagai klien yang melakukan kueri database Qdrant.

  1. Buat ConfigMaps books-dataset dan demo-app, lalu deploy notebook Jupyter:

    kubectl create -n qdrant configmap books-dataset --from-file=manifests/04-notebook/dataset.csv
    kubectl create -n qdrant configmap notebook --from-file=manifests/04-notebook/vector-database.ipynb
    kubectl apply -n qdrant -f manifests/04-notebook/jupyter.yaml
    
    • Secret bernama qdrant-apikey yang dibuat sebelumnya akan dipasang ke klien Pod sebagai variabel lingkungan bernama APIKEY.
    • ConfigMap books-dataset berisi file csv dengan data buku untuk koleksi Qdrant
    • ConfigMap notebook berisi notebook Jupyter untuk membuat Koleksi Qdrant dari books-dataset.

  2. Tunggu hingga GKE memulai Pod Jupyter:

    kubectl wait pods -l app=jupyter-notebook --for condition=Ready --timeout=300s -n qdrant
    
  3. Buka URL ini dan klik file vector-database.ipynb. Tekan Run -> Lari semua sel. Jupyter akan mengeksekusi semua kode dan melakukan kueri pencarian.

    Kueri ini melakukan penelusuran semantik terhadap koleksi my_books Anda di Qdrant, mengambil maksimal dua hasil dengan skor kecocokan tertinggi yang relevan pada teks kueri Anda.

    Mencetak setiap hasil yang dipisahkan dengan garis tanda hubung, dalam format berikut :

    • Title: Judul buku
    • Author: Penulis buku
    • Description: Seperti yang disimpan dalam kolom metadata description dokumen Anda
    • Published: Tanggal publikasi buku
    • Score: Skor relevansi Qdrant

    Outputnya mirip dengan hal berikut ini:

    Title: Romeo and Juliet
    Author: William Shakespeare, Paul Werstine (Editor), Barbara A. Mowat (Editor),
    Paavo Emil Cajander (Translator)
    Description: In Romeo and Juliet, Shakespeare creates a violent world, in which
    two young people fall in love. It is not simply that their families disapprove;
    the Montagues and the Capulets are engaged in a blood feud.In this death-filled
    setting, the movement from love at first sight to the lovers' final union in
    death seems almost inevitable. And yet, this play set in an extraordinary world
    has become the quintessential story of young love. In part because of its exquisite
    language, it is easy to respond as if it were about all young lovers. Published: 01/01/04
    Score: 0.8935013
    -----
    Title: The Unbearable Lightness of Being
    Author: Milan Kundera, Michael Henry Heim (Translator)
    Description: In The Unbearable Lightness of Being, Milan Kundera tells the story
    of a young woman in love with a man torn between his love for her and his incorrigible
    womanizing and one of his mistresses and her humbly faithful lover. This magnificent
    novel juxtaposes geographically distant places, brilliant and playful reflections,
    and a variety of styles, to take its place as perhaps the major achievement of
    one of the world's truly great writers. Published: 10/27/09
    Score: 0.8931863
    -----
    

Melihat metrik Prometheus untuk cluster Anda

Cluster GKE dikonfigurasi dengan Google Cloud Managed Service for Prometheus, yang mengaktifkan kumpulan metrik dalam format Prometheus. Layanan ini menyediakan solusi terkelola untuk pemantauan dan pemberitahuan, yang memungkinkan pengumpulan, penyimpanan, serta analisis metrik dari cluster dan penerapannya.

Diagram berikut menunjukkan cara Prometheus mengumpulkan metrik untuk cluster Anda:

Pengumpulan metrik Prometheus

Cluster pribadi GKE dalam diagram berisi komponen berikut:

  • Pod Qdrant yang mengekspos metrik pada jalur / dan port 80. Metrik ini disediakan oleh penampung file bantuan bernama metrics.
  • Kolektor berbasis Prometheus yang memproses metrik dari Pod Qdrant.
  • Resource PodMonitoring yang mengirim metrik ke Cloud Monitoring.

Untuk mengekspor dan melihat metrik, ikuti langkah-langkah berikut:

  1. Membuat PodMonitoring resource untuk menyalin metrik sebesar labelSelector:

    kubectl apply -n qdrant -f manifests/03-prometheus-metrics/pod-monitoring.yaml
    

    Manifes pod-monitoring.yaml menjelaskan resource PodMonitoring:

    apiVersion: monitoring.googleapis.com/v1
    kind: PodMonitoring
    metadata:
      name: qdrant
    spec:
      selector:
        matchLabels:
          app: qdrant
          app.kubernetes.io/instance: qdrant-database
      endpoints:
      - port: 80
        interval: 30s
        path: / 
  2. Membuat dasbor Cloud Monitoring dengan konfigurasi yang ditentukan dalam dashboard.json :

    gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
    
  3. Setelah perintah berhasil berjalan, buka Cloud Monitoring Dasbor:

    Buka ringkasan Dasbor

  4. Dari daftar dasbor, buka dasbor Qdrant Overview. Mungkin memerlukan waktu 1-2 menit untuk mengumpulkan dan menampilkan metrik.

    Dasbor menunjukkan jumlah metrik utama:

    • Koleksi
    • Vektor yang disematkan
    • Operasi tertunda
    • Node berjalan

Cadangkan konfigurasi cluster Anda

Pencadangan untuk GKE memungkinkan Anda menjadwalkan pencadangan rutin seluruh cluster GKE konfigurasi deployment, termasuk workload yang di-deploy beserta datanya.

Dalam tutorial ini, Anda mengonfigurasi rencana pencadangan untuk cluster GKE cadangan semua beban kerja, termasuk Secret dan Volume, setiap hari pada pukul 03.00. Untuk memastikan pengelolaan penyimpanan yang efisien, cadangan yang sudah lebih dari tiga hari akan dihapus secara otomatis.

Untuk mengonfigurasi Paket cadangan, ikuti langkah-langkah berikut:

  1. Aktifkan fitur Pencadangan untuk GKE untuk cluster Anda:

    gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \
    --project=${PROJECT_ID} \
    --region=${REGION} \
    --update-addons=BackupRestore=ENABLED
    
  2. Buat rencana cadangan dengan jadwal harian untuk semua namespace dalam cluster:

    gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \
    --project=${PROJECT_ID} \
    --location=${REGION} \
    --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \
    --all-namespaces \
    --include-secrets \
    --include-volume-data \
    --cron-schedule="0 3 * * *" \
    --backup-retain-days=3
    

    Perintah ini menggunakan variabel lingkungan yang relevan saat runtime.

    Format nama cluster bersifat relatif terhadap project dan region Anda sebagai berikut:

    projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
    

    Saat diminta, ketik y.Outputnya mirip dengan berikut ini:

    Create request issued for: [qdrant-cluster-backup]
    Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
    

    Operasi ini mungkin memerlukan waktu beberapa menit hingga berhasil diselesaikan. Setelah selesai, output-nya mirip dengan berikut ini:

    Created backup plan [qdrant-cluster-backup].
    
  3. Anda dapat melihat rencana cadangan qdrant-cluster-backup yang baru dibuat tercantum di konsol Pencadangan untuk GKE.

    Buka Pencadangan untuk GKE

Jika Anda ingin memulihkan konfigurasi cadangan yang tersimpan, lihat Memulihkan cadangan.

Pembersihan

Agar tidak perlu membayar biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, hapus project yang berisi resource tersebut, atau simpan project dan hapus setiap resource.

Menghapus project

Cara termudah untuk menghindari penagihan adalah dengan menghapus project yang Anda buat dalam tutorial ini.

Menghapus project Google Cloud:

gcloud projects delete PROJECT_ID

Jika Anda menghapus project ini, berarti pembersihan telah selesai. Jika Anda tidak menghapus project, lanjutkan untuk menghapus resource satu per satu.

Menghapus resource satu per satu

  1. Menetapkan variabel lingkungan.

    export PROJECT_ID=${PROJECT_ID}
    export KUBERNETES_CLUSTER_PREFIX=qdrant
    export REGION=us-central1
    
  2. Jalankan perintah terraform destroy:

    export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
    terraform  -chdir=terraform/FOLDER destroy \
    -var project_id=${PROJECT_ID} \
    -var region=${REGION} \
    -var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
    

    Ganti FOLDER dengan gke-autopilot atau gke-standard, bergantung pada jenis cluster GKE yang Anda buat.

    Saat diminta, ketik yes.

  3. Temukan semua disk yang tidak terpasang:

    export disk_list=$(gcloud compute disks list --filter="-users:* AND labels.name=${KUBERNETES_CLUSTER_PREFIX}-cluster" --format "value[separator=|](name,region)")
    
  4. Hapus disk:

    for i in $disk_list; do
     disk_name=$(echo $i| cut -d'|' -f1)
     disk_region=$(echo $i| cut -d'|' -f2|sed 's|.*/||')
     echo "Deleting $disk_name"
     gcloud compute disks delete $disk_name --region $disk_region --quiet
    done
    
  5. Hapus repositori GitHub:

    rm -r ~/kubernetes-engine-samples/
    

Langkah selanjutnya