Menyesuaikan layanan GKE dengan bantuan Gemini


Halaman ini menjelaskan cara Anda dapat menyesuaikan deployment Google Kubernetes Engine (GKE) untuk mengoptimalkan performa dan keandalan dengan menggunakan Gemini Cloud Assist, kolaborator yang didukung AI untuk Google Cloud. Bantuan Gemini dapat mencakup rekomendasi, pembuatan kode, dan pemecahan masalah.

Selain banyak manfaat lainnya, Gemini Cloud Assist dapat membantu Anda mencapai hal-hal berikut:

  • Mengurangi biaya: mengidentifikasi resource yang tidak digunakan, menyesuaikan ukuran deployment, dan mengoptimalkan konfigurasi penskalaan otomatis untuk meminimalkan pengeluaran yang tidak perlu.
  • Meningkatkan keandalan dan stabilitas: mengidentifikasi potensi masalah secara proaktif, seperti perbedaan versi atau tidak adanya Anggaran Gangguan Pod, untuk mencegah periode nonaktif dan memastikan ketahanan aplikasi.
  • Mengoptimalkan Workload AI/ML: dapatkan bantuan terkait deployment, pengelolaan, dan pengoptimalan workload AI/ML di GKE.
  • Menyederhanakan pemecahan masalah: menganalisis log dengan cepat dan menemukan akar penyebab error, sehingga menghemat waktu dan tenaga.

Halaman ini ditujukan bagi pengguna GKE lama, serta Operator dan Developer yang menyediakan dan mengonfigurasi resource cloud serta men-deploy aplikasi dan layanan. Untuk mempelajari lebih lanjut peran umum dan contoh tugas yang dirujuk dalam konten Google Cloud , lihat Peran dan tugas pengguna umum GKE Enterprise.

Pelajari cara dan waktu Gemini untuk Google Cloud menggunakan data Anda.

Biaya

  • Gemini: Selama Pratinjau, penggunaan Gemini Cloud Assist tidak dikenai biaya.

  • GKE: Tidak ada biaya tambahan untuk menggunakan Gemini Cloud Assist di GKE.

Sebelum memulai

Untuk mulai menggunakan Gemini dengan GKE, selesaikan prasyarat berikut.

Panduan ini mengasumsikan bahwa Anda memiliki cluster GKE dan, sebaiknya beberapa deployment sedang berjalan.

Bertanya kepada Gemini Cloud Assist

Anda dapat memanggil Gemini Cloud Assist dari konsol Google Cloud . Gemini Cloud Assist memungkinkan Anda menggunakan perintah natural language untuk mendapatkan bantuan dalam menyelesaikan tugas dengan cepat dan efisien.

Untuk membuka Cloud Assist dari halaman GKE, ikuti langkah-langkah berikut:

  1. Di Google Cloud konsol, pada halaman pemilih project, pilih Google Cloud project tempat Anda mengaktifkan Gemini Cloud Assist.

    Buka pemilih project

  2. Di konsol Google Cloud , buka halaman tertentu di konsol Kubernetes Engine.

    Misalnya, buka halaman Ringkasan Kubernetes Engine.

    Buka Ringkasan Kubernetes Engine

    Jika ada pertanyaan tentang resource tertentu, buka halaman yang relevan terlebih dahulu. Misalnya, di halaman Cluster, Gemini Cloud Assist dapat memberi saran tentang cara mengelola cluster, memantau kondisi cluster, dan memecahkan masalah cluster. Menggunakan Gemini di halaman konsol Google Cloud tertentu akan membantu memberikan konteks untuk pertanyaan Anda. Gemini kemudian dapat menggunakan konteks ini, beserta project keseluruhan yang sedang Anda kerjakan, untuk memberikan bantuan yang lebih disesuaikan dan akurat.

  3. Untuk membuka panel Gemini Cloud Assist, klik kilau Open or close Gemini AI chat di toolbar.

  4. Jika diminta, dan Anda menyetujui persyaratannya, klik Setuju.

  5. Masukkan perintah di panel Gemini. Lihat contoh alur kerja penggunaan Gemini untuk memecahkan masalah di bagian berikut.

Untuk mengetahui informasi selengkapnya tentang cara menggunakan Gemini di konsol Google Cloud , lihat Menggunakan Gemini Cloud Assist.

Contoh penggunaan Gemini untuk memecahkan masalah

Gemini dapat membantu Anda memecahkan masalah di layanan GKE.

  1. Buka halaman Workloads di konsol Google Cloud .

    Buka Workloads

  2. Pilih beban kerja yang ingin Anda pecahkan masalahnya.

  3. Klik tab Logs.

  4. Klik kilau Buka atau tutup percakapan AI Gemini di toolbar.

  5. Masukkan perintah untuk menjelaskan masalah yang Anda alami. Misalnya, "Aplikasi database accounts-db saya mengalami latensi tinggi". Gemini mungkin meminta lebih banyak konteks, seperti jenis database, cakupan dampak, seperti operasi dan pengguna yang terpengaruh oleh latensi.

  6. Kemudian, Gemini dapat memberikan panduan untuk menganalisis log sendiri dan memberikan saran pemecahan masalah.

  7. Tinjau dan ikuti saran untuk menyelesaikan masalah.

Contoh perintah untuk Gemini Cloud Assist

Bagian ini menunjukkan beberapa kasus penggunaan di dunia nyata dan menyarankan perintah yang dapat Anda coba ajukan kepada Gemini. Respons sebenarnya yang Anda terima mungkin bersifat umum, atau mungkin dipersonalisasi dan dapat ditindaklanjuti berdasarkan status unik lingkungan Google Cloud Anda. Respons dapat mencakup Google Cloud link konsol untuk meninjau dan mengelola resource Cloud Anda, serta link ke dokumentasi yang relevan untuk mengetahui informasi lebih lanjut.

Mengurangi biaya

Tabel berikut menjelaskan perintah yang dapat Anda gunakan untuk membantu mengurangi biaya.

Perintah Jenis respons
"Bagaimana cara menghemat biaya di cluster GKE tanpa mengorbankan performa?"
  • Rekomendasi yang mengidentifikasi dan menyarankan penghapusan resource yang kurang dimanfaatkan, seperti cluster nonaktif.
  • Saran tentang cara mengaktifkan atau menyesuaikan mekanisme penskalaan otomatis.
  • Saran yang menyoroti potensi penghematan melalui peninjauan konfigurasi, seperti kebijakan retensi logging.
"Saya ingin mengupgrade cluster GKE my-docker-cluster saya. Ada rekomendasi?" Saran untuk menerapkan konfigurasi dan praktik terbaik Kubernetes tertentu, misalnya:
  • Menentukan permintaan dan batas resource untuk Pod guna membantu memastikan alokasi resource yang dapat diprediksi.
  • Menggunakan namespace khusus untuk mengisolasi workload.
  • Menerapkan Anggaran Gangguan Pod untuk membantu memastikan bahwa jumlah minimum replika Pod tersedia selama gangguan sukarela, seperti pemeliharaan atau upgrade node.
  • Menjadwalkan masa pemeliharaan untuk mengelola gangguan terencana dan meminimalkan periode nonaktif yang tidak terduga.
  • Mendaftarkan cluster di saluran rilis untuk mengelola upgrade versi GKE.
"Saya akan mengalami lonjakan traffic besar dalam beberapa minggu ke depan di cluster my-docker-cluster. Ada rekomendasi?"
  • Strategi untuk menskalakan jumlah Pod aplikasi menggunakan horizontal Pod autoscaler.
  • Strategi untuk meningkatkan resource (CPU, memori) per Pod dengan menggunakan penskalaan otomatis Pod vertikal.
"Beban kerja GKE mana yang tidak mengaktifkan HPA?" Daftar beban kerja yang tidak mengaktifkan penskalaan otomatis Pod horizontal.

Meningkatkan keandalan dan stabilitas

Tabel berikut menjelaskan perintah yang dapat Anda gunakan untuk membantu meningkatkan keandalan dan stabilitas workload GKE Anda.

Perintah Jenis respons
"Bagaimana cara membuat cluster GKE saya lebih andal dan mencegah periode nonaktif?"
  • Mengidentifikasi ketidaksesuaian versi di cluster dan menyarankan tindakan untuk mempertahankan kompatibilitas versi Kubernetes.
  • Memberikan rekomendasi untuk menerapkan isolasi resource.
  • Memberikan rekomendasi untuk mengonfigurasi Anggaran Gangguan Pod guna mempertahankan jumlah minimum replika Pod yang berjalan selama pemeliharaan atau upgrade yang direncanakan.
"Show me how I can move my workloads from the Default namespace on my-cluster." (Tunjukkan cara memindahkan beban kerja saya dari namespace Default di my-cluster). Langkah-langkah untuk melakukan hal berikut:
  • Siapkan cluster target.
  • Migrasikan aplikasi dan data ke cluster target.
  • Alihkan layanan dengan periode nonaktif minimal.
"Bagaimana cara memastikan ketersediaan tinggi untuk pod yang sedang berjalan?"
  • Prosedur mendetail yang menentukan Deployment yang menggunakan podAntiAffinity, dan beberapa replika untuk redundansi.
  • Saran untuk menyetel permintaan dan batas resource, serta menggunakan penskalaan otomatis Pod horizontal.

Mengoptimalkan GKE untuk workload AI/ML

Tabel berikut menjelaskan perintah yang dapat Anda gunakan untuk mendapatkan bantuan dalam men-deploy, mengelola, dan mengoptimalkan workload AI/ML di GKE.

Perintah Jenis respons
"Apa konfigurasi node pool yang direkomendasikan untuk menjalankan pelatihan TensorFlow terdistribusi berskala besar di GKE dengan GPU?" Rekomendasi untuk mengoptimalkan pelatihan ML TensorFlow terdistribusi di GKE dapat mencakup hal berikut:
  • Memilih GPU dan jenis mesin yang tepat.
  • Mengaktifkan penskalaan otomatis.
  • Mengoptimalkan konektivitas jaringan.
  • Memanfaatkan framework pelatihan terdistribusi.
  • Menerapkan langkah-langkah penghematan biaya.
"Bagaimana cara menggunakan GPU di GKE untuk pelatihan?" Ringkasan langkah-langkah dan pertimbangan untuk mengonfigurasi cluster dan workload agar menggunakan GPU.
"Beri saya contoh men-deploy container penayangan model di GKE." Contoh dengan kode contoh untuk men-deploy container penyajian model di GKE. Contoh ini dapat menggabungkan praktik terbaik dan membantu memastikan skalabilitas.
"Metrik apa yang harus saya pantau untuk menilai efektivitas konfigurasi load balancing saya untuk inferensi?" Daftar metrik—seperti distribusi traffic, latensi, tingkat error, CPU, dan pemakaian memori—untuk mendapatkan insight tentang performa dan kondisi penyiapan load balancing.

Menyederhanakan pemecahan masalah

Tabel berikut menjelaskan perintah yang dapat Anda gunakan untuk membantu menganalisis log dengan cepat dan mengidentifikasi penyebab utama error, sehingga menghemat waktu dan tenaga.

Perintah Jenis respons
"Apa penyebab error ini?
Readiness probe failed: Get "https://10…./abcd": context deadline exceeded (Client.Timeout exceeded while awaiting headers)"
Menjelaskan bahwa kubelet gagal menjalankan pemeriksaan kesiapan untuk container dalam periode waktu tunggu yang ditentukan, dan menyarankan kemungkinan penyebab dan tindakan pemecahan masalah.
"Mengapa deployment nettools saya error dengan pesan error ping: socket: Operation not permitted?" Menjelaskan bahwa perintah ping memerlukan kemampuan Konteks Keamanan CAP_NET_RAW, dan secara default, container di Kubernetes berjalan dengan serangkaian kemampuan terbatas karena alasan keamanan.
"Apa artinya jika pod saya tidak dapat dijadwalkan karena error Cannot schedule pods: No preemption victims found for incoming pod." Menjelaskan cara kerja penjadwalan dan preemption Pod di Kubernetes. Mencantumkan langkah-langkah untuk memecahkan masalah penyebab tidak ditemukannya korban praempti.

Langkah berikutnya