Tutorial ini menunjukkan cara men-deploy cluster database vektor Elasticsearch di Google Kubernetes Engine (GKE).
Database vektor adalah penyimpanan data yang dirancang khusus untuk mengelola dan menelusuri kumpulan besar vektor berdimensi tinggi. Vektor ini mewakili data seperti teks, gambar, audio, video, atau data apa pun yang dapat dienkode secara numerik. Tidak seperti database relasional yang mengandalkan kecocokan persis, database vektor berspesialisasi dalam menemukan item serupa atau mengidentifikasi pola dalam set data yang besar.
Elasticsearch adalah database vektor yang menggabungkan fungsi penelusuran dan analisis. AppSearch dilengkapi dengan REST API terbuka untuk mengelola cluster Anda, dan mendukung kueri terstruktur, kueri teks lengkap, dan kueri kompleks. Elasticsearch memungkinkan Anda melakukan penelusuran frasa, kemiripan, dan awalan, dengan saran pelengkapan otomatis.
Tutorial ini ditujukan untuk administrator dan arsitek platform cloud, engineer ML, dan profesional MLOps (DevOps) yang tertarik untuk men-deploy cluster database Elasticsearch di GKE.
Manfaat
Elasticsearch menawarkan manfaat berikut:
- Berbagai library untuk berbagai bahasa pemrograman dan API terbuka untuk berintegrasi dengan layanan lain.
- Penskalaan horizontal, serta dukungan untuk sharding dan replikasi yang menyederhanakan skalabilitas dan ketersediaan tinggi.
- Penyeimbangan cluster multi-node untuk pemanfaatan resource yang optimal.
- Dukungan container dan Kubernetes untuk integrasi yang lancar ke dalam lingkungan native cloud modern.
Tujuan
Dalam tutorial ini, Anda akan mempelajari cara:
- Merencanakan dan men-deploy infrastruktur GKE untuk Elasticsearch.
- Men-deploy dan mengonfigurasi Elasticsearch di cluster GKE.
- Deploy operator StatefulHA untuk memastikan ketersediaan tinggi Elasticsearch.
- Jalankan notebook untuk membuat dan menyimpan contoh embedding vektor dalam database Anda, dan menjalankan kueri penelusuran berbasis vektor.
- Mengumpulkan dan memvisualisasikan metrik di dasbor.
Arsitektur deployment
Dalam tutorial ini, Anda akan men-deploy cluster GKE regional yang sangat tersedia untuk Elasticsearch, dengan beberapa node Kubernetes yang tersebar di beberapa zona ketersediaan. Penyiapan ini membantu memastikan fault tolerance, skalabilitas, dan redundansi geografis. Hal ini memungkinkan update dan pemeliharaan berkelanjutan sekaligus memberikan SLA untuk waktu beroperasi dan ketersediaan. Untuk mengetahui informasi selengkapnya, lihat Cluster regional.
Jika node tidak dapat dijangkau, Pod di node tersebut tidak akan langsung dijadwalkan ulang. Dengan Pod yang menggunakan StatefulSet, perlu waktu lebih dari delapan menit agar Pod aplikasi dihapus dan dijadwalkan ulang ke node baru.
Untuk mengatasi masalah ini, operator StatefulHA melakukan hal berikut:
- Memecahkan jeda penjadwalan ulang, menangani setelan failover, dan mempersingkat waktu pemulihan dengan menggunakan setelan
.forceDeleteStrategy
:AfterNodeUnreachable
. - Memastikan bahwa aplikasi StatefulSet menggunakan RePD.
- Memperluas GKE dengan resource HighAvailabilityApplication kustom yang di-deploy di namespace yang sama dengan Elasticsearch. Hal ini memungkinkan operator StatefulHA untuk memantau dan merespons peristiwa failover.
Diagram berikut menunjukkan cluster Elasticsearch yang berjalan di beberapa node dan zona dalam cluster GKE:
Biaya
Dalam dokumen ini, Anda akan menggunakan komponen Google Cloud yang dapat ditagih berikut: Google Cloud:
Untuk membuat perkiraan biaya berdasarkan proyeksi penggunaan Anda,
gunakan kalkulator harga.
Setelah menyelesaikan tugas yang dijelaskan dalam dokumen ini, Anda dapat menghindari penagihan berkelanjutan dengan menghapus resource yang Anda buat. Untuk mengetahui informasi selengkapnya, lihat Pembersihan.
Penggunaan Elasticsearch gratis berdasarkan Server Side Public License (SSPL).
Sebelum memulai
Dalam tutorial ini, Anda akan menggunakan Cloud Shell untuk menjalankan perintah. Cloud Shell adalah lingkungan shell untuk mengelola resource yang dihosting di Google Cloud. Cloud Shell telah diinstal dengan alat command line Google Cloud CLI, kubectl, Helm, dan Terraform. Jika tidak menggunakan Cloud Shell, Anda harus menginstal Google Cloud CLI.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE APIs:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com - Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Resource Manager, Compute Engine, GKE, IAM Service Account Credentials, and Backup for GKE APIs:
gcloud services enable cloudresourcemanager.googleapis.com
compute.googleapis.com container.googleapis.com iamcredentials.googleapis.com gkebackup.googleapis.com -
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/storage.objectViewer, roles/container.admin, roles/iam.serviceAccountAdmin, roles/compute.admin, roles/gkebackup.admin, roles/monitoring.viewer
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
Menyiapkan lingkungan Anda
Untuk menyiapkan lingkungan Anda dengan Cloud Shell, ikuti langkah-langkah berikut:
Tetapkan variabel lingkungan untuk project, region, dan awalan resource cluster Kubernetes:
export PROJECT_ID=PROJECT_ID export KUBERNETES_CLUSTER_PREFIX=elasticsearch export REGION=us-central1
- Ganti
PROJECT_ID
dengan ID project Google CloudAnda.
Tutorial ini menggunakan region
us-central1
untuk membuat resource deployment Anda.- Ganti
Periksa versi Helm:
helm version
Update versi jika lebih lama dari 3.13:
curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
Clone repositori kode contoh dari GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Buka direktori
elasticsearch
untuk mulai membuat resource deployment:cd kubernetes-engine-samples/databases/elasticsearch
Membuat infrastruktur cluster
Di bagian ini, Anda akan menjalankan skrip Terraform untuk membuat cluster GKE regional pribadi yang sangat tersedia untuk men-deploy database Elasticsearch.
Anda dapat memilih untuk men-deploy Elasticsearch menggunakan cluster Standard atau Autopilot. Masing-masing memiliki kelebihan dan model penetapan harga yang berbeda.
Autopilot
Diagram berikut menunjukkan cluster GKE Autopilot yang di-deploy dalam project.
Untuk men-deploy infrastruktur cluster, jalankan perintah berikut di Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
GKE mengganti variabel berikut saat runtime:
GOOGLE_OAUTH_ACCESS_TOKEN
menggunakan perintahgcloud auth print-access-token
untuk mengambil token akses yang mengautentikasi interaksi dengan berbagai Google Cloud APIPROJECT_ID
,REGION
, danKUBERNETES_CLUSTER_PREFIX
adalah variabel lingkungan yang ditentukan di bagian Siapkan lingkungan Anda dan ditetapkan ke variabel baru yang relevan untuk cluster Autopilot yang Anda buat.
Saat diminta, ketik yes
.
Outputnya mirip dengan hal berikut ini:
...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials elasticsearch-cluster --region us-central1"
Terraform membuat resource berikut:
- Jaringan VPC kustom dan subnet pribadi untuk node Kubernetes.
- Cloud Router untuk mengakses internet melalui Penafsiran Alamat Jaringan (NAT).
- Cluster GKE pribadi di region
us-central1
. ServiceAccount
dengan izin logging dan pemantauan untuk cluster.- Konfigurasi Google Cloud Managed Service for Prometheus untuk pemantauan dan pemberitahuan cluster.
Standard
Diagram berikut menunjukkan cluster GKE regional pribadi Standar yang di-deploy ke tiga zona yang berbeda.
Untuk men-deploy infrastruktur cluster, jalankan perintah berikut di Cloud Shell:
export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
GKE mengganti variabel berikut saat runtime:
GOOGLE_OAUTH_ACCESS_TOKEN
menggunakan perintahgcloud auth print-access-token
untuk mengambil token akses yang mengautentikasi interaksi dengan berbagai Google Cloud API.PROJECT_ID
,REGION
, danKUBERNETES_CLUSTER_PREFIX
adalah variabel lingkungan yang ditentukan di bagian Menyiapkan lingkungan dan ditetapkan ke variabel baru yang relevan untuk cluster Standar yang Anda buat.
Saat diminta, ketik yes
. Anda mungkin perlu menunggu beberapa menit agar perintah ini selesai
dan cluster akan menampilkan status siap.
Outputnya mirip dengan hal berikut ini:
...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.
Outputs:
kubectl_connection_command = "gcloud container clusters get-credentials elasticsearch-cluster --region us-central1"
Terraform membuat resource berikut:
- Jaringan VPC kustom dan subnet pribadi untuk node Kubernetes.
- Cloud Router untuk mengakses internet melalui Penafsiran Alamat Jaringan (NAT).
- Cluster GKE pribadi di region
us-central1
dengan penskalaan otomatis diaktifkan (satu hingga dua node per zona). ServiceAccount
dengan izin logging dan pemantauan untuk cluster.- Konfigurasi Google Cloud Managed Service for Prometheus untuk pemantauan dan pemberitahuan cluster.
Hubungkan ke cluster
Konfigurasi kubectl
untuk mengambil kredensial dan berkomunikasi dengan cluster GKE baru Anda:
gcloud container clusters get-credentials \
${KUBERNETES_CLUSTER_PREFIX}-cluster --region ${REGION}
Men-deploy database Elasticsearch dan operator StatefulHA
Di bagian ini, Anda akan men-deploy database Elasticsearch (dalam mode cluster) dan operator StatefulHA ke cluster GKE menggunakan Diagram Helm Operator ECK.
Deployment membuat cluster GKE dengan konfigurasi berikut:
- Tiga replika node Elasticsearch.
- DaemonSet untuk mengubah setelan memori virtual, untuk performa Elasticsearch yang optimal.
- Konfigurasi NodeAffinity dan PodAntiAffinity untuk memastikan distribusi yang tepat di seluruh node Kubernetes, mengoptimalkan penggunaan node pool, dan memaksimalkan ketersediaan di berbagai zona.
- Operator HA Stateful yang mengelola proses failover dan memastikan ketersediaan tinggi.
- Untuk autentikasi, database membuat Secret Kubernetes dengan kredensial, sandi, dan sertifikat autentikasi.
Untuk menggunakan diagram Helm guna men-deploy database Elasticsearch, ikuti langkah-langkah berikut:
Aktifkan add-on StatefulHA:
Autopilot
GKE otomatis mengaktifkan add-on
StatefulHA
saat membuat cluster.Standard
Jalankan perintah berikut:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=StatefulHA=ENABLED
Anda mungkin perlu menunggu 15 menit agar perintah ini selesai dan cluster akan menampilkan status siap.
Buat Definisi Resource Kustom (CRD) Elastic Cloud on Kubernetes (ECK):
kubectl apply -f https://download.elastic.co/downloads/eck/2.11.1/crds.yaml
Deploy operator ECK:
kubectl apply -f https://download.elastic.co/downloads/eck/2.11.1/operator.yaml
Buat namespace
elastic
untuk database:kubectl create ns elastic
Instal resource
HighAvailabilityApplication
(HAA), yang menentukan aturan failover untuk Elasticsearch.kubectl apply -n elastic -f manifests/01-regional-pd/ha-app.yaml
Manifes
ha-app.yaml
menjelaskan resourceHighAvailabilityApplication
:Terapkan manifes untuk membuat disk SSD persisten regional
StorageClass
:kubectl apply -n elastic -f manifests/01-regional-pd/regional-pd.yaml
Manifes
regional-pd.yaml
menjelaskan disk SSD persistenStorageClass
:Deploy resource DaemonSet untuk menetapkan memori virtual di setiap node:
kubectl apply -n elastic -f manifests/02-elasticsearch/mmap-count.yaml
Manifes
mmap-count.yaml
menjelaskanDaemonSet
:Terapkan manifes untuk men-deploy cluster Elasticsearch:
kubectl apply -n elastic -f manifests/02-elasticsearch/elasticsearch.yaml
Manifes
elasticsearch.yaml
menjelaskan Deployment:Tunggu beberapa menit hingga cluster Elasticsearch dimulai sepenuhnya.
Periksa status deployment:
kubectl get elasticsearch -n elastic --watch
Outputnya mirip dengan berikut ini, jika database
elasticsearch
berhasil di-deploy:NAME HEALTH NODES VERSION PHASE AGE elasticsearch-ha green 3 8.11.4 Ready 2m30s
Tunggu hingga
HEALTH
ditampilkan sebagaigreen
. Tekan Ctrl+C untuk keluar dari perintah jika diperlukan.Deploy load balancer internal untuk mengakses database Elasticsearch yang berjalan di VPC yang sama dengan cluster GKE Anda:
kubectl apply -n elastic -f manifests/02-elasticsearch/ilb.yaml
Manifes
ilb.yaml
menjelaskan LayananLoadBalancer
:Untuk memeriksa apakah aturan failover diterapkan, jelaskan resource dan konfirmasi
Status: Message: Application is protected
.kubectl describe highavailabilityapplication elasticsearch-ha-es-main -n elastic
Outputnya mirip dengan berikut ini
Status: Conditions: Last Transition Time: 2024-02-01T13:27:50Z Message: Application is protected Observed Generation: 1 Reason: ApplicationProtected Status: True Type: Protected Events: <none>
Setelah GKE memulai workload, pastikan GKE telah membuat workload Elasticsearch:
kubectl get pod,svc,statefulset,pdb,secret,daemonset -n elastic
Outputnya mirip dengan hal berikut ini:
NAME READY STATUS RESTARTS AGE pod/elasticsearch-ha-es-main-0 2/2 Running 0 7m16s pod/elasticsearch-ha-es-main-1 2/2 Running 0 7m16s pod/elasticsearch-ha-es-main-2 2/2 Running 0 7m16s pod/max-map-count-setter-28wt9 1/1 Running 0 7m27s pod/max-map-count-setter-cflsw 1/1 Running 0 7m27s pod/max-map-count-setter-gzq9k 1/1 Running 0 7m27s NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service/elasticsearch-ha-es-http ClusterIP 10.52.8.28 <none> 9200/TCP 7m18s service/elasticsearch-ha-es-internal-http ClusterIP 10.52.3.48 <none> 9200/TCP 7m18s service/elasticsearch-ha-es-main ClusterIP None <none> 9200/TCP 7m16s service/elasticsearch-ha-es-transport ClusterIP None <none> 9300/TCP 7m18s NAME READY AGE statefulset.apps/elasticsearch-ha-es-main 3/3 7m16s NAME MIN AVAILABLE MAX UNAVAILABLE ALLOWED DISRUPTIONS AGE poddisruptionbudget.policy/elasticsearch-ha-es-default 2 N/A 1 7m16s NAME TYPE DATA AGE secret/elasticsearch-ha-es-elastic-user Opaque 1 7m18s secret/elasticsearch-ha-es-file-settings Opaque 1 7m16s secret/elasticsearch-ha-es-http-ca-internal Opaque 2 7m17s secret/elasticsearch-ha-es-http-certs-internal Opaque 3 7m17s secret/elasticsearch-ha-es-http-certs-public Opaque 2 7m17s secret/elasticsearch-ha-es-internal-users Opaque 4 7m18s secret/elasticsearch-ha-es-main-es-config Opaque 1 7m16s secret/elasticsearch-ha-es-main-es-transport-certs Opaque 7 7m16s secret/elasticsearch-ha-es-remote-ca Opaque 1 7m16s secret/elasticsearch-ha-es-transport-ca-internal Opaque 2 7m16s secret/elasticsearch-ha-es-transport-certs-public Opaque 1 7m16s secret/elasticsearch-ha-es-xpack-file-realm Opaque 4 7m18s NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE daemonset.apps/max-map-count-setter 6 6 6 6 6 <none> 13m
Resource GKE berikut dibuat untuk cluster Elasticsearch:
StatefulSet
Elasticsearch yang mengontrol tiga replika Pod.- DaemonSet untuk mengonfigurasi setelan memori virtual.
- Layanan untuk terhubung ke Elasticsearch.
- Secret dengan kredensial superuser dan sertifikat terkait layanan.
- Pod operator HA stateful dan resource
HighlyAvailableApplication
, yang secara aktif memantau aplikasi Elasticsearch.
Menjalankan kueri dengan notebook Vertex AI Colab Enterprise
Bagian ini menjelaskan cara membuat penyematan ke dalam dokumen Elasticsearch dan melakukan kueri penelusuran semantik menggunakan klien Python Elasticsearch resmi di notebook Colab Enterprise. Dokumen di Elasticsearch terdiri dari berbagai kolom, yang masing-masing disambungkan dengan nilai yang sesuai.
Untuk menggunakan Elasticsearch secara efektif, sebaiknya strukturkan data Anda ke dalam dokumen ini, yang kemudian diindeks untuk tujuan penelusuran.
Dalam contoh ini, Anda menggunakan set data dari file CSV yang berisi daftar buku dalam berbagai genre. Elasticsearch berfungsi sebagai mesin telusur, dan Pod yang Anda buat berfungsi sebagai klien yang mengkueri database Elasticsearch.
Anda dapat menggunakan template runtime khusus untuk di-deploy ke VPC elasticsearch-vpc
(Virtual Private Cloud), sehingga notebook dapat berkomunikasi dengan resource di cluster GKE Anda.
Membuat template runtime
Untuk membuat template runtime:
Di konsol Google Cloud , buka halaman Runtime Templates Colab Enterprise dan pastikan project Anda dipilih:
Klik add_box Template Baru. Halaman Create new runtime template akan muncul.
Di bagian Runtime basics:
- Di kolom Nama tampilan, masukkan
elastic-connect
. - Di menu drop-down Region, pilih
us-central1
. Region ini sama dengan cluster GKE Anda.
- Di kolom Nama tampilan, masukkan
Di bagian Configure compute:
- Di menu drop-down Machine type, pilih
e2-standard-2
. - Di kolom Disk size, masukkan
30
.
- Di menu drop-down Machine type, pilih
Di bagian Networking and security:
- Di menu drop-down Network, pilih jaringan tempat cluster GKE Anda berada.
- Di menu drop-down Subnetwork, pilih subnetwork yang sesuai.
- Hapus centang pada kotak Aktifkan akses internet publik.
Klik Create untuk menyelesaikan pembuatan template runtime. Template runtime Anda akan muncul dalam daftar di tab Runtime templates.
Membuat runtime
Untuk membuat runtime:
Dalam daftar template runtime, untuk template yang baru saja Anda buat, klik more_vert di kolom Actions, lalu klik Create runtime. Panel Create Vertex AI Runtime akan muncul.
Klik Create untuk membuat runtime berdasarkan template Anda.
Di tab Runtimes yang terbuka, tunggu hingga status bertransisi ke Healthy.
Mengimpor notebook
Untuk mengimpor notebook:
Buka tab Notebook, lalu klik Impor notebook dari URL.
Di bagian Sumber impor, pilih URL.
Di bagian URL Notebook, masukkan link berikut:
https://raw.githubusercontent.com/GoogleCloudPlatform/kubernetes-engine-samples/main/databases/elasticsearch/manifests/03-notebook/vector-database.ipynb
Klik Import.
Menghubungkan ke runtime dan menjalankan kueri
Untuk terhubung ke runtime dan menjalankan kueri:
Di notebook, di samping tombol Connect, klik arrow_drop_down Additional connection options. Panel Connect to Vertex AI Runtime akan muncul.
Pilih Connect to a runtime, lalu pilih Connect to an existing Runtime.
Pilih runtime yang Anda luncurkan, lalu klik Connect.
Klik tombol Run cell di sebelah kiri setiap sel kode untuk menjalankan sel notebook.
Notebook berisi sel kode dan teks yang menjelaskan setiap blok kode. Menjalankan sel kode akan mengeksekusi perintahnya dan menampilkan output. Anda dapat menjalankan sel secara berurutan, atau menjalankan setiap sel sesuai kebutuhan.
Untuk mengetahui informasi selengkapnya tentang Vertex AI Colab Enterprise, lihat dokumentasi Colab Enterprise.
Melihat metrik Prometheus untuk cluster Anda
Cluster GKE dikonfigurasi dengan Google Cloud Managed Service for Prometheus, yang memungkinkan pengumpulan metrik dalam format Prometheus. Layanan ini menyediakan solusi terkelola sepenuhnya untuk pemantauan dan pemberitahuan, yang memungkinkan pengumpulan, penyimpanan, dan analisis metrik dari cluster dan aplikasinya.
Diagram berikut menunjukkan cara Prometheus mengumpulkan metrik untuk cluster Anda:
Cluster pribadi GKE dalam diagram berisi komponen berikut:
- Pod Elasticsearch yang mengekspos metrik di jalur
/
dan port9114
. Metrik ini disediakan oleh penampung sidecar bernamametrics
yang berisi elasticsearch_exporter. - Pengumpul berbasis Prometheus yang memproses metrik dari Pod Elasticsearch.
- Resource PodMonitoring yang mengirim metrik ke Cloud Monitoring.
Konfigurasi cluster menentukan penampung sidecar dengan eksportir metrik dalam format Prometheus:
apiVersion: elasticsearch.k8s.elastic.co/v1
kind: Elasticsearch
metadata:
name: elasticsearch-ha
spec:
...
nodeSets:
- name: main
...
podTemplate:
spec:
containers:
...
- name: metrics
image: quay.io/prometheuscommunity/elasticsearch-exporter:v1.7.0
command:
- /bin/elasticsearch_exporter
- --es.ssl-skip-verify
- --es.uri=https://$(ES_USER):$(ES_PASSWORD)@localhost:9200
...
env:
- name: ES_USER
value: "elastic"
- name: ES_PASSWORD
valueFrom:
secretKeyRef:
name: elasticsearch-ha-es-elastic-user
key: elastic
Untuk mengekspor dan melihat metrik, ikuti langkah-langkah berikut:
Buat resource
PodMonitoring
untuk meng-scrap metrik menurutlabelSelector
:kubectl apply -n elastic -f manifests/04-prometheus-metrics/pod-monitoring.yaml
Manifes
pod-monitoring.yaml
menjelaskan resourcePodMonitoring
:Setelah beberapa menit, dasbor bawaan "Ringkasan Prometheus Elasticsearch" akan ditampilkan.
Untuk melihat lebih banyak grafik terkait data, impor dasbor Cloud Monitoring kustom dengan konfigurasi yang ditentukan di
dashboard.json
:gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
Setelah perintah berhasil berjalan, buka Dasbor Cloud Monitoring:
Dari daftar dasbor, buka dasbor
ElasticSearch Overview
. Mungkin perlu waktu 1-2 menit untuk mengumpulkan dan menampilkan metrik.Dasbor menampilkan jumlah metrik utama:
- Indeks
- Dokumen dan Shard
- Operasi tertunda
- Menjalankan node dengan status responsnya
Mencadangkan konfigurasi cluster
Fitur Pencadangan untuk GKE memungkinkan Anda menjadwalkan pencadangan reguler untuk seluruh konfigurasi cluster GKE, termasuk workload yang di-deploy dan datanya.
Dalam tutorial ini, Anda akan mengonfigurasi rencana pencadangan untuk cluster GKE guna melakukan pencadangan semua beban kerja, termasuk Secret dan Volume, setiap hari pukul 03.00. Untuk memastikan pengelolaan penyimpanan yang efisien, pencadangan yang lebih lama dari tiga hari akan otomatis dihapus.
Aktifkan fitur Pencadangan untuk GKE untuk cluster Anda:
gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \ --project=${PROJECT_ID} \ --region=${REGION} \ --update-addons=BackupRestore=ENABLED
Buat rencana cadangan dengan jadwal harian untuk semua namespace dalam cluster:
gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \ --project=${PROJECT_ID} \ --location=${REGION} \ --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \ --all-namespaces \ --include-secrets \ --include-volume-data \ --cron-schedule="0 3 * * *" \ --backup-retain-days=3
Perintah ini menggunakan variabel lingkungan yang relevan saat runtime.
Format nama cluster bersifat relatif terhadap project dan region Anda sebagai berikut:
projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
Saat diminta, ketik
y.
Outputnya mirip dengan berikut ini:Create request issued for: [elasticsearch-cluster-backup] Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
Penyelesaian operasi ini mungkin memerlukan waktu beberapa menit. Setelah eksekusi selesai, output-nya akan mirip dengan berikut ini:
Created backup plan [elasticsearch-cluster-backup].
Anda dapat melihat rencana pencadangan
elasticsearch-cluster-backup
yang baru dibuat tercantum di konsol Backup untuk GKE.
Jika Anda ingin memulihkan konfigurasi cadangan tersimpan, lihat Memulihkan cadangan.
Pembersihan
Agar tidak perlu membayar biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, hapus project yang berisi resource tersebut, atau simpan project dan hapus setiap resource.
Menghapus project
Cara termudah untuk menghindari penagihan adalah dengan menghapus project yang Anda buat untuk tutorial ini.
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID
Jika Anda menghapus project ini, berarti pembersihan telah selesai. Jika Anda tidak menghapus project, lanjutkan untuk menghapus resource individual.
Menghapus resource satu per satu
Menetapkan variabel lingkungan.
export PROJECT_ID=${PROJECT_ID} export KUBERNETES_CLUSTER_PREFIX=elasticsearch export REGION=us-central1
Jalankan perintah
terraform destroy
:export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token) terraform -chdir=terraform/FOLDER destroy \ -var project_id=${PROJECT_ID} \ -var region=${REGION} \ -var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}
Ganti
FOLDER
dengangke-autopilot
ataugke-standard
, bergantung pada jenis cluster GKE yang Anda buat.Saat diminta, ketik
yes
.Temukan semua disk yang tidak terpasang:
export disk_list=$(gcloud compute disks list --filter="-users:* AND labels.name=${KUBERNETES_CLUSTER_PREFIX}-cluster" --format "value[separator=|](name,region)")
Hapus disk:
for i in $disk_list; do disk_name=$(echo $i| cut -d'|' -f1) disk_region=$(echo $i| cut -d'|' -f2|sed 's|.*/||') echo "Deleting $disk_name" gcloud compute disks delete $disk_name --region $disk_region --quiet done
Hapus repositori GitHub:
rm -r ~/kubernetes-engine-samples/
Langkah selanjutnya
- Pelajari software open source Elasticsearch.
- Pelajari praktik terbaik untuk men-deploy database di GKE.
- Temukan solusi untuk menjalankan workload yang memproses banyak data dengan GKE.