Seperti yang Anda baca dalam panduan Siklus proses
cluster, sebagai pengguna GKE, Anda biasanya menggunakan alat Google Cloud untuk pengelolaan
cluster dan alat Kubernetes seperti kubectl
untuk tugas internal cluster seperti
men-deploy aplikasi. Artinya, jika Anda sudah memahami cara men-deploy workload di implementasi Kubernetes lain, men-deploy workload di GKE akan melibatkan banyak alur kerja yang sama (jika Anda belum memahami cara men-deploy workload di Kubernetes, lihat Deployment dan referensi lainnya di Mulai mempelajari Kubernetes).
Namun, GKE juga menyediakan fitur tambahan untuk men-deploy dan mengelola beban kerja Anda, termasuk alat observabilitas, opsi database yang dikelola sepenuhnya untuk aplikasi stateful, dan opsi hardware tertentu untuk jenis beban kerja khusus, termasuk beban kerja AI/ML.
Halaman ini memberikan ringkasan singkat bagi developer dan administrator yang ingin men-deploy workload di cluster GKE, dengan link ke beberapa dokumentasi yang lebih mendetail. Anda dapat menemukan banyak panduan dan tutorial yang lebih spesifik di bagian Deploy... dalam dokumentasi inti GKE.
Sebelum membaca halaman ini, Anda harus memahami hal-hal berikut:
Peran yang diperlukan
Jika Anda bukan pemilik project, Anda harus memiliki peran Identity and Access Management (IAM) berikut setidaknya untuk men-deploy workload:
Kubernetes Engine Cluster Viewer (
roles/container.clusterViewer
): Peran ini memberikan izincontainer.clusters.get
, yang diperlukan untuk melakukan autentikasi ke cluster dalam project Google Cloud. Hal ini tidak memberi Anda otorisasi untuk melakukan tindakan apa pun di dalam cluster tersebut. Administrator cluster Anda dapat memberi Anda otorisasi untuk melakukan tindakan lain di cluster menggunakan IAM atau Kubernetes RBAC.Untuk mengetahui detail tentang semua izin yang disertakan dalam peran ini, atau untuk memberikan peran dengan izin baca/tulis, lihat peran Kubernetes Engine dalam dokumentasi IAM.
Anda dapat mempelajari lebih lanjut cara kerja kontrol akses di GKE di Kontrol akses.
Aplikasi stateless
Aplikasi stateless adalah aplikasi yang tidak menyimpan data atau status aplikasi ke cluster atau ke penyimpanan persisten. Aplikasi stateless dapat di-deploy langsung dari menu Workloads di konsol Google Cloud serta menggunakan Kubernetes API. Anda dapat mempelajari cara men-deploy aplikasi Linux stateless di GKE di Men-deploy aplikasi Linux stateless. Jika mau, Anda juga dapat mempelajari cara men-deploy aplikasi Windows Server stateless.
Aplikasi dan penyimpanan stateful
Aplikasi yang perlu menyimpan data yang ada setelah masa aktif Pod-nya dikenal sebagai aplikasi stateful. Anda atau administrator dapat menggunakan objek PersistentVolume Kubernetes untuk menyediakan penyimpanan ini. Di GKE, penyimpanan PersistentVolume didukung oleh disk Compute Engine. Anda dapat mempelajari cara men-deploy aplikasi stateful sederhana di GKE di Men-deploy aplikasi stateful.
Jika Anda memerlukan data aplikasi stateful untuk dipertahankan dalam database, bukan penyimpanan yang terikat dengan masa aktif cluster, GKE menawarkan opsi berikut:
- Database yang terkelola sepenuhnya: Database terkelola, seperti Cloud SQL atau Spanner, memberikan pengurangan overhead operasional dan dioptimalkan untuk infrastruktur Google Cloud. Database terkelola lebih mudah dipelihara dan dioperasikan dibandingkan database yang Anda deploy langsung di Kubernetes.
- Aplikasi Kubernetes: Anda dapat men-deploy dan menjalankan instance database (seperti MySQL atau PostgreSQL) di cluster GKE.MySQLPostgreSQL
Anda dapat mempelajari lebih lanjut opsi data di GKE di Data di GKE dan Merencanakan deployment database di GKE.
Workload dengan persyaratan khusus
GKE menyediakan fitur dan panduan untuk membantu Anda men-deploy workload dengan persyaratan khusus, termasuk aplikasi yang memerlukan arsitektur node tertentu dan workload AI/ML yang menggunakan Cloud TPU, serta aplikasi yang memerlukan Pod-nya untuk berjalan di node yang sama atau terpisah. Anda dapat mempelajari lebih lanjut cara men-deploy beberapa opsi ini dalam panduan berikut:
- Tentang TPU di GKE memperkenalkan cara menggunakan akselerator Cloud TPU untuk workload AI/ML di GKE. GKE memberikan dukungan penuh untuk pengelolaan siklus proses node TPU dan node pool, termasuk membuat, mengonfigurasi, dan menghapus VM TPU. Anda dapat men-deploy workload TPU di cluster Standard dan Autopilot.
- Tentang GPU di GKE menjelaskan cara meminta dan menggunakan hardware GPU dengan workload GKE.
- Class komputasi di Autopilot menjelaskan cara memilih arsitektur komputasi tertentu untuk menjadwalkan Pod saat men-deploy aplikasi di cluster Autopilot. Untuk cluster Standar, Anda dapat langsung menentukan kelompok mesin yang ingin digunakan untuk node saat membuat cluster.
- Tentang class komputasi kustom menjelaskan cara membuat class komputasi kustom untuk fleksibilitas yang lebih besar saat menentukan opsi hardware untuk aplikasi Anda di cluster Autopilot dan Standard.
- Mengonfigurasi pemisahan beban kerja di GKE memberi tahu Anda cara memastikan bahwa Pod aplikasi Anda berjalan di mesin dasar yang sama atau berbeda.
Mengamati workload Anda
GKE menyediakan berbagai fitur untuk mengamati workload dan kesehatannya, termasuk ringkasan sekilas tentang status dan metrik workload di konsol Google Cloud, serta metrik, log, dan pemberitahuan yang lebih mendalam.
- Pelajari lebih lanjut cara menggunakan halaman GKE di konsol Google Cloud di GKE di konsol Google Cloud
- Pelajari lebih lanjut visibilitas GKE dan Google Cloud di Visibilitas untuk GKE.
Mengelola deployment workload
Jika Anda atau administrator ingin menyiapkan pipeline continuous integration dan deployment (CI/CD) untuk men-deploy workload, Anda dapat menemukan praktik terbaik dan panduan khusus GKE untuk CI/CD di Praktik terbaik untuk continuous integration dan deployment ke GKE, serta tutorial untuk menyiapkan pipeline CI/CD dengan alat dan produk tertentu.
Langkah selanjutnya
Pelajari lebih lanjut alat untuk menggunakan GKE:
Pelajari cara menyederhanakan deployment dari IDE dengan Cloud Code dalam tutorial Men-deploy dan mengupdate dari IDE.