Langsung ke konten utama
Google Cloud
Dokumentasi Area teknologi
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan profesional
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
Alat lintas produk
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
Situs terkait
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Konsol Masuk
  • Vertex AI
Panduan Referensi Contoh Dukungan Referensi
Hubungi Kami Mulai gratis
Google Cloud
  • Dokumentasi
    • Panduan
    • Referensi
    • Contoh
    • Dukungan
    • Referensi
  • Area teknologi
    • Lainnya
  • Alat lintas produk
    • Lainnya
  • Situs terkait
    • Lainnya
  • Konsol
  • Hubungi Kami
  • Mulai gratis
  • Discover
  • Ringkasan
  • Pengantar Vertex AI
  • MLOps di Vertex AI
  • Antarmuka untuk Vertex AI
  • Panduan pemula Vertex AI
    • Melatih model AutoML
    • Melatih model khusus
    • Mendapatkan inferensi dari model kustom
    • Melatih model menggunakan Vertex AI dan Python SDK
      • Pengantar
      • Prasyarat
      • Membuat notebook
      • Membuat set data
      • Membuat skrip pelatihan
      • Melatih model
      • Membuat inferensi
  • Framework ML terintegrasi
    • PyTorch
    • TensorFlow
  • Vertex AI untuk pengguna BigQuery
  • Glosarium
  • Mulai
  • Menyiapkan project dan lingkungan pengembangan
  • Menginstal Vertex AI SDK untuk Python
  • Memilih metode pelatihan
  • Mencoba tutorial
    • Ringkasan tutorial
    • Tutorial AutoML
      • Data gambar Hello
        • Ringkasan
        • Menyiapkan project dan lingkungan
        • Membuat set data dan mengimpor gambar
        • Melatih model klasifikasi gambar AutoML
        • Mengevaluasi dan menganalisis performa model
        • Men-deploy model ke endpoint dan membuat inferensi
        • Membersihkan project
      • Data tabular Hello
        • Ringkasan
        • Menyiapkan project dan lingkungan
        • Membuat set data dan melatih model klasifikasi AutoML
        • Men-deploy model dan meminta inferensi
        • Membersihkan project
    • Tutorial pelatihan kustom
      • Melatih model tabulasi khusus
      • Melatih model klasifikasi gambar TensorFlow Keras
        • Ringkasan
        • Menyiapkan project dan lingkungan
        • Melatih model klasifikasi gambar kustom
        • Menyajikan prediksi dari model klasifikasi gambar kustom.
        • Membersihkan project
      • Meningkatkan kualitas model klasifikasi gambar dengan data kustom
    • Tutorial notebook pelatihan kustom
  • Menggunakan AI Generatif dan LLM
  • Tentang AI generatif
  • Menggunakan alat pengembangan Vertex AI
  • Ringkasan alat pengembangan
  • Menggunakan Vertex AI SDK
    • Ringkasan
    • Pengantar Vertex AI SDK untuk Python
    • Vertex AI SDK untuk kelas Python
      • Ringkasan kelas Vertex AI SDK
      • Class data
      • Melatih class
      • Kelas model
      • Kelas prediksi
      • Melacak class
  • Menggunakan Vertex AI di notebook
    • Memilih solusi notebook
    • Colab Enterprise
      • Panduan memulai:Membuat notebook menggunakan konsol
      • Menghubungkan ke runtime
      • Mengelola runtime dan template runtime
        • Membuat template runtime
        • Membuat runtime
    • Vertex AI Workbench
      • Pengantar
      • Tutorial notebook
      • Mulai
        • Membuat instance menggunakan Konsol
        • Menjadwalkan operasi notebook
      • Menyiapkan instance
        • Membuat instance
        • Membuat versi instance tertentu
        • Membuat instance dengan akses kredensial pengguna
        • Membuat instance dengan Confidential Computing
        • Menambahkan lingkungan conda
        • Penonaktifan saat tidak ada aktivitas
        • Membuat instance menggunakan container kustom
        • Membuat instance yang mendukung Dataproc
        • Membuat instance dengan kredensial pihak ketiga
        • Mengelola fitur melalui metadata
        • Menggunakan reservasi
      • Menghubungkan ke data
        • Membuat kueri data di BigQuery dari dalam JupyterLab
        • Mengakses bucket dan file Cloud Storage di JupyterLab
      • Menjelajahi dan memvisualisasikan data
        • Menjelajahi dan memvisualisasikan data di BigQuery
      • Mempertahankan
        • Mengelola lingkungan conda Anda
        • Pencadangan dan pemulihan
          • Menyimpan notebook ke GitHub
          • Menggunakan snapshot
          • Gunakan Cloud Storage
        • Menonaktifkan instance
        • Mengupgrade lingkungan instance
        • Mengakses JupyterLab menggunakan SSH
        • Memigrasi data ke instance baru
        • Mengubah jenis mesin dan mengonfigurasi GPU
        • Menyediakan resource menggunakan Terraform
      • Monitor
        • Memantau status kondisi
      • Mengontrol akses
        • Kontrol akses
        • Mengelola akses ke instance
        • Mengelola akses ke antarmuka JupyterLab instance
        • Menggunakan kunci enkripsi yang dikelola pelanggan
        • Menggunakan instance dalam perimeter layanan
      • Memecahkan masalah Vertex AI Workbench
      • Catatan rilis Vertex AI Workbench
      • Notebook terkelola
        • Pengantar notebook terkelola
        • Mulai
          • Membuat instance notebook terkelola menggunakan Konsol Cloud
          • Menjadwalkan operasi notebook terkelola
        • Menyiapkan instance notebook terkelola
          • Membuat instance dengan container kustom
          • Menjalankan instance notebook terkelola di dalam cluster Dataproc
          • Menggunakan Dataproc Serverless Spark dengan notebook terkelola
          • Penonaktifan saat tidak ada aktivitas
          • Versi notebook terkelola
        • Menghubungkan ke data
          • Membuat kueri data di BigQuery dari dalam JupyterLab
          • Mengakses bucket dan file Cloud Storage di JupyterLab
        • Menjelajahi dan memvisualisasikan data
          • Ringkasan
          • Menjelajahi dan memvisualisasikan data di BigQuery
        • Mengembangkan model
          • Pengembangan model di instance notebook terkelola
        • Deploy
          • Menjalankan file notebook dengan eksekutor
          • Menjalankan eksekusi notebook dengan parameter
        • Mempertahankan
          • Bermigrasi ke instance Vertex AI Workbench
          • Menyimpan notebook ke GitHub
          • Mengubah jenis mesin dan mengonfigurasi GPU instance notebook terkelola
          • Mengupgrade lingkungan instance notebook terkelola
          • Memigrasikan data ke instance notebook terkelola yang baru
        • Monitor
          • Logging audit
        • Mengontrol akses
          • Kontrol akses
          • Mengelola akses ke instance
          • Mengelola akses ke antarmuka JupyterLab instance
          • Menggunakan kunci enkripsi yang dikelola pelanggan
          • Menyiapkan jaringan
          • Menggunakan instance notebook terkelola dalam perimeter layanan
        • Memecahkan masalah notebook terkelola
      • Notebook yang dikelola pengguna
        • Pengantar notebook yang dikelola pengguna
        • Mulai
          • Membuat instance notebook yang dikelola pengguna menggunakan Konsol Cloud
        • Menyiapkan instance notebook yang dikelola pengguna
          • Membuat versi instance tertentu
          • Memasang dependensi
          • Memilih image virtual machine
          • Membuat instance dengan container kustom
        • Jelajahi data
          • Data science dengan R di Google Cloud: Tutorial analisis data eksploratif
        • Monitor
          • Memantau status kondisi
          • Logging audit
        • Mengontrol akses
          • Kontrol akses
          • Mengelola akses ke instance
          • Mengelola akses ke antarmuka JupyterLab instance
          • Kunci enkripsi yang dikelola pelanggan
          • Gunakan instance notebook yang dikelola pengguna dalam perimeter layanan
          • Menggunakan virtual machine berpelindung dengan notebook yang dikelola pengguna
          • Tutorial: Membuat instance notebook di jaringan VPC
        • Mempertahankan
          • Bermigrasi ke instance Vertex AI Workbench
          • Menyimpan notebook ke GitHub
          • Mencadangkan data menggunakan snapshot
          • Menonaktifkan instance notebook yang dikelola pengguna
          • Mengubah jenis mesin dan konfigurasi GPU dari instance notebook yang dikelola pengguna
          • Mengupgrade lingkungan instance notebook yang dikelola pengguna
          • Memigrasikan data ke instance notebook baru yang dikelola pengguna
          • Mendaftarkan instance lama dengan Notebooks API
          • Mengakses JupyterLab menggunakan SSH
        • Memecahkan masalah notebook yang dikelola pengguna
  • Dukungan Terraform untuk Vertex AI
  • Pengembangan model AI prediktif
  • Ringkasan
  • Pengembangan model AutoML
    • Ringkasan pelatihan AutoML
    • Data gambar
      • Klasifikasi
        • Menyiapkan data
        • Buat set data
        • Latih model
        • Evaluasi model
        • Dapatkan prediksi
        • Menafsirkan Hasil
      • Deteksi objek
        • Menyiapkan data
        • Buat set data
        • Latih model
        • Evaluasi model
        • Dapatkan prediksi
        • Menafsirkan Hasil
      • Mengenkode data gambar menggunakan Base64
      • Mengekspor model AutoML Edge
    • Data tabulasi
      • Ringkasan
      • Pengantar data tabulasi
      • Alur Kerja Tabulasi
        • Ringkasan
        • Rekayasa fitur
        • AutoML Menyeluruh
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • TabNet
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • Wide & Deep
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • Perkiraan
          • Ringkasan
          • Melatih model
          • Mendapatkan inferensi online
          • Mendapatkan inferensi batch
        • Harga
        • Akun layanan
        • Mengelola kuota
      • Melakukan klasifikasi dan regresi dengan AutoML
        • Ringkasan
        • Panduan memulai: Klasifikasi AutoML (Konsol Cloud)
        • Menyiapkan data pelatihan
        • Membuat set data
        • Melatih model
        • Evaluasi model
        • Melihat arsitektur model
        • Mendapatkan inferensi online
        • Mendapatkan inferensi batch
        • Ekspor model
      • Membuat perkiraan dengan AutoML
        • Ringkasan
        • Menyiapkan data pelatihan
        • Membuat set data
        • Melatih model
        • Evaluasi model
        • Mendapatkan inferensi
        • Perkiraan hierarkis
      • Melakukan perkiraan dengan ARIMA+
      • Melakukan perkiraan dengan Prophet
      • Melakukan rekonsiliasi entity
      • Menampilkan atribusi untuk klasifikasi dan regresi
      • Atribusi fitur untuk perkiraan
      • Jenis data dan transformasi untuk data AutoML tabulasi
      • Parameter pelatihan untuk perkiraan
      • Pemisahan data untuk data tabulasi
      • Praktik terbaik untuk membuat data pelatihan tabulasi
      • Perkiraan dengan Insight Deret Waktu
    • Melatih model AutoML Edge
      • Menggunakan Console
      • Menggunakan API
    • AutoML Text
      • Bermigrasi dari teks AutoML ke Gemini
      • Gemini untuk pengguna teks AutoML
  • Vertex AI Training
    • Ringkasan pelatihan kustom di Vertex AI
    • Memuat dan menyiapkan data
      • Ringkasan persiapan data
      • Menggunakan Cloud Storage sebagai sistem file yang terpasang
      • Memasang berbagi secara NFS untuk pelatihan kustom
      • Menggunakan set data terkelola
    • Menyiapkan aplikasi pelatihan
      • Memahami layanan pelatihan kustom
      • Menyiapkan kode pelatihan
      • Menggunakan container bawaan
        • Membuat aplikasi pelatihan Python untuk container bawaan
        • Container bawaan untuk pelatihan khusus
      • Menggunakan container kustom
        • Container kustom untuk pelatihan
        • Membuat container kustom
        • Menyimpan data dalam container dan menjalankan kode pelatihan secara lokal
      • Menggunakan Deep Learning VM Image dan Container
    • Melatih resource yang persisten
      • Ringkasan
      • Membuat resource persisten
      • Menjalankan tugas pelatihan pada resource persisten
      • Mendapatkan informasi resource persisten
      • Mulai ulang resource persisten
      • Menghapus resource persisten
    • Mengonfigurasi tugas pelatihan
      • Memilih metode pelatihan khusus
      • Mengonfigurasi setelan container untuk pelatihan
      • Mengonfigurasi resource komputasi untuk pelatihan
      • Menggunakan reservasi dengan pelatihan
      • Menggunakan Spot VM dengan pelatihan
    • Mengirim tugas pelatihan
      • Membuat tugas kustom
      • Penyesuaian hyperparameter
        • Ringkasan penyesuaian hyperparameter
        • Menggunakan penyesuaian hyperparameter
      • Membuat pipeline pelatihan
      • Menjadwalkan tugas berdasarkan ketersediaan resource
      • Menggunakan pelatihan yang terdistribusi
      • Pelatihan dengan VM Cloud TPU
      • Menggunakan IP pribadi untuk pelatihan kustom
      • Menggunakan antarmuka Private Service Connect untuk pelatihan (direkomendasikan)
    • Melakukan Penelusuran Arsitektur Neural
      • Ringkasan
      • Lingkungan penyiapan
      • Tutorial tingkat pemula
      • Praktik terbaik dan alur kerja
      • Desain tugas proxy
      • Mengoptimalkan kecepatan pelatihan untuk PyTorch
      • Menggunakan container pelatihan bawaan dan ruang penelusuran
    • Memantau dan men-debug
      • Memantau dan men-debug pelatihan menggunakan shell interaktif
      • Membuat profil performa pelatihan model
    • Mengoptimalkan penggunaan Vertex AI Vizier
      • Ringkasan Vertex AI Vizier
      • Membuat studi Vertex AI Vizier
      • Tutorial notebook Vertex AI Vizier
    • Mendapatkan inferensi
    • Tutorial: Membangun pipeline untuk pelatihan berkelanjutan
    • Membuat batasan kebijakan organisasi kustom
  • Ray di Vertex AI
    • Ringkasan Ray di Vertex AI
    • Melakukan penyiapan untuk Ray di Vertex AI
    • Membuat cluster Ray di Vertex AI
    • Memantau cluster Ray di Vertex AI
    • Menskalakan cluster Ray di Vertex AI
    • Mengembangkan aplikasi Ray di Vertex AI
    • Menjalankan cluster Spark on Ray di Vertex AI
    • Menggunakan Ray di Vertex AI dengan BigQuery
    • Men-deploy model dan mendapatkan inferensi
    • Menghapus cluster Ray
    • Tutorial notebook Ray on Vertex AI
  • Pengembangan model AI generatif
  • Ringkasan
  • Membuat dan mengelola set data
  • Ringkasan
  • Pembagian data untuk model AutoML
  • Membuat kumpulan anotasi
  • Menghapus kumpulan anotasi
  • Menambahkan label (konsol)
  • Mengekspor metadata dan anotasi dari set data
  • Mengelola versi set data
  • Menggunakan Data Catalog untuk menelusuri resource model dan set data
  • Mendapatkan inferensi
  • Ringkasan
  • Mengonfigurasi model untuk inferensi
    • Mengekspor artefak model untuk inferensi
    • Container bawaan untuk inferensi
    • Persyaratan container kustom untuk inferensi
    • Menggunakan container kustom untuk inferensi
    • Menggunakan rute kustom arbitrer
    • Menggunakan runtime TensorFlow yang dioptimalkan
    • Menayangkan inferensi dengan NVIDIA Triton
    • Rutinitas inferensi kustom
  • Mendapatkan inferensi online
    • Buat endpoint
      • Memilih jenis endpoint
      • Membuat endpoint publik
      • Menggunakan endpoint publik khusus (direkomendasikan)
      • Menggunakan endpoint pribadi khusus berdasarkan Private Service Connect (direkomendasikan)
      • Menggunakan endpoint akses layanan pribadi
    • Men-deploy model ke endpoint
      • Ringkasan deployment model
      • Resource komputasi untuk inferensi
      • Men-deploy model menggunakan Konsol Google Cloud
      • Men-deploy model menggunakan gcloud CLI atau Vertex AI API
      • Menggunakan penskalaan otomatis untuk inferensi
      • Menggunakan deployment bertahap untuk mengganti model yang di-deploy
      • Membatalkan deployment model dan menghapus endpoint
      • Menggunakan Cloud TPU untuk inferensi online
      • Menggunakan reservasi dengan inferensi online
      • Menggunakan VM mulai fleksibel dengan inferensi
      • Menggunakan Spot VM dengan inferensi
    • Mendapatkan inferensi online
    • Melihat metrik inferensi online
      • Melihat metrik endpoint
      • Melihat metrik DCGM
    • Membagikan resource di seluruh deployment
    • Menggunakan logging inferensi online
  • Mendapatkan inferensi batch
    • Mendapatkan inferensi batch dari model kustom
    • Menggunakan reservasi dengan inferensi batch
    • Mendapatkan prediksi batch dari model Model Garden yang di-deploy sendiri
  • Menyajikan model AI generatif
    • Men-deploy model AI generatif
    • Menyajikan model terbuka Gemma menggunakan TPU Cloud dengan Saxml
    • Menyajikan model terbuka Llama 3 menggunakan Cloud TPU multi-host dengan Saxml
    • Menyajikan model DeepSeek-V3 menggunakan deployment GPU multi-host
  • Kebijakan organisasi kustom
  • Tutorial notebook inferensi Vertex AI
  • Melakukan penelusuran kemiripan vektor
  • Ringkasan Vector Search
  • Coba
  • Mulai
    • Panduan memulai Vector Search
    • Sebelum Anda memulai
    • Tutorial notebook
  • Tentang penelusuran campuran
  • Membuat dan mengelola indeks
    • Struktur dan format data input
    • Membuat dan mengelola indeks Anda
    • Indeks yang dioptimalkan untuk penyimpanan
    • Parameter konfigurasi indeks
    • Memperbarui dan membangun ulang indeks
    • Memfilter kecocokan vektor
    • Mengimpor data indeks dari BigQuery
    • Penyematan dengan metadata
  • Men-deploy dan membuat kueri indeks
    • Private Service Connect (direkomendasikan)
      • Menyiapkan Vector Search dengan Private Service Connect
      • Kueri
      • Autentikasi Token Web JSON
    • Endpoint publik
      • Deploy
      • Kueri
    • Private services access
      • Menyiapkan koneksi peering jaringan VPC
      • Deploy
      • Kueri
      • Autentikasi Token Web JSON
  • Memantau indeks yang di-deploy
  • Menggunakan kebijakan organisasi kustom
  • Mendapatkan dukungan
  • Operasi machine learning (MLOps)
  • Mengelola fitur
    • Pengelolaan fitur di Vertex AI
    • Vertex AI Feature Store
      • Tentang Vertex AI Feature Store
      • Menyiapkan fitur
        • Menyiapkan sumber data
        • Membuat grup fitur
        • Membuat fitur
      • Menyiapkan penyaluran online
        • Jenis penyaluran online
        • Membuat instance toko online
        • Membuat instance tampilan fitur
      • Mengontrol akses
        • Mengontrol akses ke resource
      • Menyinkronkan toko online
        • Memulai sinkronisasi data
        • Membuat daftar operasi sinkronisasi
        • Memperbarui fitur dalam tampilan fitur
      • Menayangkan fitur
        • Menyajikan fitur dari toko online
        • Menyajikan nilai fitur historis
      • Monitor
        • Fitur pemantauan
      • Mengelola resource fitur
        • Membuat daftar grup fitur
        • Mencantumkan fitur
        • Memperbarui grup fitur
        • Memperbarui fitur
        • Menghapus grup fitur
        • Menghapus fitur
      • Mengelola resource toko online
        • Membuat daftar toko online
        • Melihat daftar tampilan fitur
        • Memperbarui toko online
        • Memperbarui tampilan fitur
        • Menghapus toko online
        • Menghapus tampilan fitur
      • Metadata fitur
        • Perbarui label
      • Telusuri referensi
        • Telusuri referensi
        • Menelusuri metadata resource di Data Catalog
      • Mengelola embedding
        • Melakukan penelusuran menggunakan embedding
      • Tutorial notebook
        • Notebook tutorial Vertex AI Feature Store
    • Vertex AI Feature Store (Lama)
      • Tentang Vertex AI Feature Store (Lama)
      • Model data dan resource
      • Persyaratan data sumber
      • Penyiapan
      • Praktik terbaik
      • Menggunakan Vertex AI Feature Store (Lama)
        • Mengelola featurestore
        • Mengelola jenis entity
        • Mengelola dan menemukan fitur
        • Impor batch
        • Impor streaming
        • Penyaluran online
        • Mengambil data pelatihan
        • Mengekspor nilai fitur
        • Menghapus nilai fitur
        • Pemantauan
        • Mengontrol akses ke resource
  • Mengelola model
    • Pengantar Vertex AI Model Registry
    • Pembuatan versi di Model Registry
    • Mengimpor model ke Model Registry
    • Menyalin model di Model Registry
    • Menghapus model
    • Terintegrasi dengan BigQuery ML
    • Menggunakan alias model
    • Menggunakan label model
    • Menggunakan Data Catalog untuk menelusuri resource model dan set data
  • Mengevaluasi model
    • Evaluasi model di Vertex AI
    • Melakukan evaluasi model di Vertex AI
    • Evaluasi model untuk keadilan
      • Pengantar evaluasi model demi keadilan
      • Metrik bias data untuk Vertex AI
      • Metrik bias model untuk Vertex AI
    • Tutorial notebook evaluasi model
  • Mengatur alur kerja ML menggunakan pipeline
    • Pengantar
    • Antarmuka
    • Mengonfigurasi project Anda
    • Membangun pipeline
    • Menjalankan pipeline
    • Menggunakan template pipeline
      • Membuat, mengupload, dan menggunakan template pipeline
      • Menggunakan template yang sudah tersedia di Galeri Template
    • Mengonfigurasi pipeline Anda
      • Mengonfigurasi caching eksekusi
      • Mengonfigurasi kebijakan kegagalan
      • Mengonfigurasi percobaan ulang untuk tugas pipeline
      • Menentukan jenis mesin untuk langkah pipeline
      • Meminta resource mesin Google Cloud dengan Vertex AI Pipelines
      • Mengonfigurasi antarmuka Private Service Connect (direkomendasikan)
      • Mengonfigurasi secret dengan Secret Manager
      • Mengonfigurasi eksekusi pipeline pada resource persisten
    • Menjadwalkan dan memicu operasi pipeline
      • Menjadwalkan proses pipeline dengan scheduler API
      • Memicu proses pipeline dengan Pub/Sub
    • Membatalkan atau menghapus eksekusi pipeline
      • Membatalkan operasi pipeline
      • Menghapus operasi pipeline
    • Menjalankan ulang pipeline
    • Memantau eksekusi pipeline
      • Melihat metrik pipeline
      • Melihat log tugas pipeline
      • Merutekan log ke sink Cloud Pub/Sub
      • Mengonfigurasi notifikasi email
    • Memvisualisasikan hasil
      • Memvisualisasikan dan menganalisis hasil pipeline
      • Melacak silsilah artefak pipeline
      • Menghasilkan output HTML dan Markdown
    • Pelabelan resource oleh Vertex AI Pipelines
    • Memahami biaya operasi pipeline
    • Bermigrasi dari Kubeflow Pipelines ke Vertex AI Pipelines
    • Menggunakan batasan kustom
    • Google Cloud Pipeline Components
      • Panduan memulai
      • Pengantar Komponen Pipeline Google Cloud
      • Daftar Komponen Pipeline Google Cloud
      • Menggunakan Komponen Pipeline Google Cloud
      • Membangun komponen pipeline Anda sendiri
    • Tutorial Vertex AI Pipelines
      • Notebook tutorial
  • Melacak dan menganalisis metadata ML Anda
    • Pengantar Vertex ML Metadata
    • Model data dan resource
    • Mengonfigurasi penyimpanan metadata project Anda
    • Menggunakan Vertex ML Metadata
      • Melacak Vertex ML Metadata
      • Menganalisis Vertex ML Metadata
      • Mengelola Vertex ML Metadata
      • Skema sistem
      • Membuat dan menggunakan skema kustom
      • Menggunakan batasan kustom dengan penyimpanan metadata
    • Tutorial notebook Vertex ML Metadata
  • Memahami perilaku model
    • Pengantar Explainable AI
    • Mengonfigurasi penjelasan berbasis contoh untuk pelatihan kustom
    • Mengonfigurasi penjelasan berbasis fitur untuk pelatihan kustom
      • Mengonfigurasi penjelasan
      • Mengonfigurasi setelan visualisasi
      • Meningkatkan penjelasan
    • Mengonfigurasi penjelasan berbasis fitur untuk klasifikasi gambar AutoML
      • Mengonfigurasi setelan visualisasi
      • Meningkatkan penjelasan
    • Menggunakan TensorFlow untuk penjelasan
    • Mendapatkan penjelasan
    • Keterbatasan Explainable AI
    • Tutorial notebook Explainable AI
  • Memantau kualitas model
    • Pengantar Pemantauan Model
    • Pemantauan Model v2
      • Menyiapkan pemantauan model
      • Menjalankan tugas pemantauan
      • Mengelola monitor model
    • Pemantauan Model v1
      • Memberikan skema untuk Pemantauan Model
      • Memantau diferensiasi performa dan penyimpangan fitur
      • Memantau skew dan penyimpangan atribusi fitur
      • Pemantauan Model untuk prediksi batch
  • Melacak Experiments
    • Pengantar Vertex AI Experiments
    • Menyiapkan Vertex AI Experiments
    • Membuat eksperimen
    • Membuat dan mengelola operasi eksperimen
    • Data log
      • Mencatat data secara otomatis ke operasi eksperimen
      • Mencatat data secara manual ke operasi eksperimen
    • Mencatat model ke operasi eksperimen
    • Melacak eksekusi dan artefak
    • Menambahkan operasi pipeline ke eksperimen
    • Menjalankan tugas pelatihan dengan pelacakan eksperimen
    • Membandingkan dan menganalisis operasi
    • Menggunakan Vertex AI TensorBoard
      • Pengantar Vertex AI TensorBoard
      • Menyiapkan Vertex AI TensorBoard
      • Mengonfigurasi skrip pelatihan
      • Menggunakan Vertex AI TensorBoard dengan pelatihan kustom
      • Menggunakan Vertex AI TensorBoard dengan Vertex AI Pipelines
      • Mencatat data TensorBoard ke dalam log secara manual
      • Mengupload log yang sudah ada
      • Melihat Vertex AI TensorBoard
    • Tutorial notebook
      • Mulai Menggunakan Vertex AI Experiments
      • Membandingkan operasi pipeline
      • Pelatihan model
      • Membandingkan model
      • Pencatatan otomatis
      • Logging otomatis pelatihan kustom
      • Melacak parameter dan metrik untuk pelatihan kustom
      • Menghapus eksperimen Vertex AI TensorBoard yang sudah tidak berlaku
      • Pelatihan kustom Vertex AI TensorBoard dengan container kustom
      • Pelatihan kustom Vertex AI TensorBoard dengan container bawaan
      • Penyesuaian hyperparameter Vertex AI TensorBoard dengan dasbor HParams
      • Membuat profil performa pelatihan model menggunakan Cloud Profiler
      • Membuat profil performa pelatihan model menggunakan Cloud Profiler dalam pelatihan kustom dengan container bawaan
      • Integrasi Vertex AI TensorBoard dengan Vertex AI Pipelines
  • Mengelola
  • Kontrol akses
    • Kontrol akses dengan IAM
    • Izin IAM
    • Menyiapkan project untuk tim
    • Mengontrol akses ke endpoint Vertex AI
    • Menggunakan akun layanan khusus
    • Menggunakan kunci enkripsi yang dikelola pelanggan
    • Transparansi Akses
  • Memantau resource Vertex AI
    • Metrik Cloud Monitoring
    • Informasi logging audit
  • Jaringan profesional
    • Ringkasan akses jaringan
    • Mengakses Vertex AI API
    • Mengakses layanan Vertex AI melalui akses layanan pribadi
    • Mengakses layanan Vertex AI melalui endpoint PSC
    • Mengakses layanan Vertex AI melalui antarmuka PSC
    • Menyiapkan Peering Jaringan VPC
    • Menyiapkan konektivitas ke jaringan lain
    • Menyiapkan antarmuka Private Service Connect
    • Tutorial: Mengakses pipeline pelatihan secara pribadi dari infrastruktur lokal
    • Tutorial: Mengakses indeks Vector Search secara pribadi dari infrastruktur lokal
    • Tutorial: Mengakses Generative AI API dari infrastruktur lokal
    • Tutorial: Mengakses prediksi batch secara pribadi dari infrastruktur lokal
    • Tutorial: Membuat instance Vertex AI Workbench di jaringan VPC
  • Keamanan
    • Kontrol Layanan VPC
    • Mengizinkan akses endpoint publik ke resource yang dilindungi dari luar perimeter
    • Mengizinkan akses multicloud ke resource yang dilindungi dari luar perimeter
    • Mengizinkan akses ke resource yang dilindungi dari dalam perimeter
  • Memberi nama pada resource
  • Contoh dan tutorial
  • Tutorial notebook
  • Contoh kode
    • Semua contoh kode Vertex AI
    • Contoh kode untuk semua produk
  • AI dan ML
  • Pengembangan aplikasi
  • Hosting aplikasi
  • Compute
  • Analisis data dan pipeline
  • Database
  • Terdistribusi, hybrid, dan multicloud
  • AI Generatif
  • Solusi industri
  • Jaringan profesional
  • Kemampuan observasi dan pemantauan
  • Keamanan
  • Storage
  • Pengelolaan akses dan resource
  • Pengelolaan biaya dan penggunaan
  • Google Cloud SDK, bahasa, framework, dan alat
  • Infrastruktur sebagai kode
  • Migrasi
  • Beranda Google Cloud
  • Uji Coba Gratis dan Paket Gratis
  • Architecture Center
  • Blog
  • Hubungi Bagian Penjualan
  • Pusat Developer Google Cloud
  • Pusat Developer Google
  • Google Cloud Marketplace
  • Dokumentasi Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Dukungan Google Cloud
  • Channel YouTube Google Cloud Tech
Halaman ini diterjemahkan oleh Cloud Translation API.
  • Home
  • Documentation
  • AI and ML
  • Vertex AI

Menggunakan Vertex AI SDK

Vertex AI SDK memungkinkan Anda menggunakan model dan fitur AI generatif Google untuk mem-build aplikasi yang didukung AI.

Vertex AI SDK tersedia untuk Python, Go, Java, dan Node.js. Untuk mempelajari setiap SDK, lihat hal berikut:

  • Vertex AI SDK untuk Python
  • Vertex AI Node.js SDK
  • Vertex AI Java SDK
  • Vertex AI Go SDK

Kecuali dinyatakan lain, konten di halaman ini dilisensikan berdasarkan Lisensi Creative Commons Attribution 4.0, sedangkan contoh kode dilisensikan berdasarkan Lisensi Apache 2.0. Untuk mengetahui informasi selengkapnya, lihat Kebijakan Situs Google Developers. Java adalah merek dagang terdaftar dari Oracle dan/atau afiliasinya.

Terakhir diperbarui pada 2025-10-19 UTC.

  • Mengapa Google

    • Memilih Google Cloud
    • Kepercayaan dan keamanan
    • Cloud Infrastruktur Modern
    • Multi-cloud
    • Infrastruktur global
    • Pelanggan dan studi kasus
    • Laporan analis
    • Dokumen produk
  • Produk dan harga

    • Lihat semua produk
    • Lihat semua solusi
    • Google Cloud untuk Startup
    • Google Cloud Marketplace
    • Harga Google Cloud
    • Hubungi bagian penjualan
  • Dukungan

    • Community forums
    • Dukungan
    • Catatan Rilis
    • Status sistem
  • Referensi

    • GitHub
    • Mulai Menggunakan Google Cloud
    • Dokumentasi Google Cloud
    • Contoh kode
    • Pusat Arsitektur Cloud
    • Pelatihan dan Sertifikasi
    • Pusat Developer
  • Interaksi

    • Blog
    • Acara
    • X (Twitter)
    • Google Cloud di YouTube
    • Google Cloud Tech di YouTube
    • Menjadi Partner
    • Google Cloud Affiliate Program
    • Press Corner
  • Tentang Google
  • Privasi
  • Persyaratan situs
  • Persyaratan Google Cloud
  • Manage cookies
  • Dekade ketiga aksi iklim Google: bergabunglah bersama kami
  • Daftar ke newsletter Google Cloud Berlangganan
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어