Glosarium Vertex AI

  • agent
    • Agen AI adalah sistem software yang memanfaatkan kecerdasan buatan (AI) untuk mencapai sasaran dan menyelesaikan tugas bagi pengguna. Agen AI menunjukkan kemampuan penalaran, perencanaan, dan memori, serta memiliki tingkat otonomi untuk mengambil keputusan, belajar, dan beradaptasi.
  • kumpulan anotasi
    • Kumpulan anotasi berisi label yang berkaitan dengan file sumber yang diupload dalam sebuah set data. Kumpulan anotasi dikaitkan dengan jenis data dan tujuan (misalnya, video/klasifikasi).
  • Endpoint API
    • Endpoint API adalah aspek konfigurasi layanan yang menentukan alamat jaringan, yang juga dikenal sebagai endpoint layanan (misalnya, aiplatform.googleapis.com).
  • Kredensial Default Aplikasi (ADC)
    • Kredensial Default Aplikasi (ADC) menyediakan cara sederhana untuk mendapatkan kredensial otorisasi yang akan digunakan dalam memanggil Google API. Metode ini paling cocok untuk kasus saat panggilan harus memiliki identitas dan tingkat otorisasi yang sama untuk aplikasi, terlepas dari pengguna. Ini adalah pendekatan yang direkomendasikan untuk memberikan otorisasi panggilan ke Google Cloud API, terutama saat Anda mem-build aplikasi yang di-deploy ke virtual machine Google App Engine (GAE) atau Compute Engine. Untuk informasi selengkapnya, lihat Cara kerja Kredensial Default Aplikasi.
  • Approximate Nearest Neighbor (ANN)
    • Layanan Approximate Nearest Neighbor (ANN) adalah solusi berskala tinggi dan latensi rendah untuk menemukan vektor serupa (atau lebih khusus, "embedding") untuk korpus berukuran besar. Untuk informasi selengkapnya, lihat Cara menggunakan Vector Search untuk pencocokan semantik.
  • artefak
    • Artefak adalah entity atau bagian data terpisah yang dihasilkan dan digunakan oleh alur kerja machine learning. Contoh artefak meliputi set data, model, file input, dan log pelatihan.
  • Artifact Registry
    • Artifact Registry adalah layanan pengelolaan artefak universal. Layanan ini direkomendasikan untuk mengelola container dan artefak lain di Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Artifact Registry.
  • Kecerdasan Buatan (AI)
    • Kecerdasan buatan (atau AI) adalah studi dan desain mesin yang tampak "cerdas", yang berarti mesin yang meniru fungsi manusia atau intelektual seperti gerakan mekanis, penalaran, atau pemecahan masalah. Salah satu subbidang AI yang paling populer adalah machine learning, yang menggunakan pendekatan statistik dan berbasis data untuk membuat AI. Namun, beberapa orang menggunakan kedua istilah ini secara bergantian.
  • autentikasi
    • Proses memverifikasi identitas klien (yang mungkin berupa pengguna atau proses lain) untuk mendapatkan akses ke sistem yang aman. Klien yang telah membuktikan identitasnya dikatakan diautentikasi. Untuk informasi selengkapnya, lihat Metode autentikasi di Google.
  • Automatic side-by-side (AutoSxS)
    • Automatic side-by-side (AutoSxS) adalah alat evaluasi berbantuan model yang membandingkan dua model bahasa besar (LLM) secara berdampingan. Model ini dapat digunakan untuk mengevaluasi performa model AI generatif di Vertex AI Model Registry atau prediksi yang dibuat sebelumnya. AutoSxS menggunakan autorater untuk memutuskan model mana yang memberikan respons yang lebih baik terhadap perintah. AutoSxS tersedia sesuai permintaan dan mengevaluasi model bahasa dengan performa yang sebanding dengan penilai manusia.
  • AutoML
    • Algoritme machine learning yang "belajar untuk belajar" melalui pengoptimalan black-box. Untuk mengetahui informasi selengkapnya, lihat Glosarium ML.
  • autorater
    • Autorater adalah model bahasa yang mengevaluasi kualitas respons model berdasarkan perintah inferensi asli. Model ini digunakan dalam pipeline AutoSxS untuk membandingkan prediksi dari dua model dan menentukan model mana yang berperforma terbaik. Untuk mengetahui informasi selengkapnya, lihat Autorater.
  • dasar pengukuran
    • Model yang digunakan sebagai titik referensi untuk membandingkan seberapa baik performa model lain (biasanya, model yang lebih kompleks). Misalnya, model regresi logistik dapat berfungsi sebagai dasar pengukuran yang baik untuk model deep. Untuk masalah tertentu, dasar pengukuran membantu developer model mengukur kuantitas performa minimal yang diharapkan yang harus dicapai model baru agar model baru tersebut berguna. Untuk mengetahui informasi selengkapnya, lihat Set data dasar pengukuran dan target.
  • batch
    • Kumpulan contoh yang digunakan dalam satu iterasi pelatihan. Ukuran batch menentukan jumlah contoh dalam batch.
  • ukuran batch
    • Jumlah contoh dalam batch. Misalnya, ukuran batch SGD adalah 1, sedangkan ukuran batch mini-batch biasanya antara 10 dan 1.000. Ukuran batch biasanya bernilai tetap selama pelatihan dan inferensi; namun, TensorFlow mengizinkan ukuran batch dinamis.
  • prediksi batch
    • Prediksi batch mengambil sekumpulan permintaan prediksi dan mengeluarkan hasilnya dalam satu file. Untuk mengetahui informasi selengkapnya, lihat Mendapatkan prediksi batch.
  • bias
    • 1. Stereotip, prasangka, atau preferensi terhadap beberapa hal, orang, atau kelompok dibandingkan yang lain. Bias ini dapat memengaruhi pengumpulan dan interpretasi data, desain sistem, dan cara pengguna berinteraksi dengan sistem. 2. Error sistematis yang disebabkan oleh prosedur sampling atau pelaporan.
  • bidireksional
    • Istilah yang digunakan untuk mendeskripsikan sistem yang mengevaluasi teks yang mendahului dan mengikuti bagian teks target. Sebaliknya, sistem searah hanya mengevaluasi teks yang mendahului bagian teks target.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • BERT adalah metode prapelatihan representasi bahasa, yang berarti kita melatih model "pemahaman bahasa" tujuan umum pada korpus teks besar (seperti Wikipedia), lalu menggunakan model tersebut untuk tugas NLP downstream yang penting bagi kita (seperti menjawab pertanyaan). BERT mengungguli metode sebelumnya karena merupakan sistem dua arah yang tidak diawasi dan sangat mendalam untuk pra-pelatihan NLP.
  • Bilingual Evaluation Understudy (BLEU)
    • Ukuran populer untuk mengevaluasi kualitas algoritma terjemahan mesin dengan membandingkan outputnya dengan output satu atau beberapa terjemahan manusia.
  • kotak pembatas
    • Kotak pembatas untuk objek dalam frame video dapat ditentukan menggunakan salah satu dari dua cara, yaitu (i) Menggunakan 2 verteks yang terdiri dari satu set koordinat x,y jika berlawanan secara diagonal dengan persegi panjang. Misalnya: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Menggunakan keempat verteks. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan data video.
  • bucket
    • Folder tingkat teratas untuk Cloud Storage. Nama bucket harus unik di semua pengguna Cloud Storage. Bucket berisi file. Untuk informasi selengkapnya, lihat Ringkasan produk Cloud Storage.
  • chat
    • Konten dialog dua arah dengan sistem ML, biasanya model bahasa besar. Interaksi sebelumnya dalam chat (apa yang Anda ketik dan bagaimana model bahasa besar merespons) menjadi konteks untuk bagian chat berikutnya. Chatbot adalah aplikasi model bahasa besar.
  • checkpoint
    • Data yang merekam status parameter model selama pelatihan atau setelah pelatihan selesai. Misalnya, selama pelatihan, Anda dapat: 1. Menghentikan pelatihan, mungkin secara sengaja atau mungkin sebagai akibat dari error tertentu. 2. Ambil checkpoint. 3. Kemudian, muat ulang titik pemeriksaan, mungkin di hardware yang berbeda. 4. Mulai ulang pelatihan. Dalam Gemini, titik pemeriksaan mengacu pada versi tertentu dari model Gemini yang dilatih pada set data tertentu.
  • model klasifikasi
    • Model yang prediksinya adalah class. Misalnya, berikut adalah semua model klasifikasi: Model yang memprediksi bahasa kalimat input (Prancis? Spanyol? Italia?). Model yang memprediksi spesies pohon (Maple? Oak? Baobab?). Model yang memprediksi class positif atau negatif untuk kondisi medis tertentu.
  • metrik klasifikasi
    • Metrik klasifikasi yang didukung di Vertex AI SDK untuk Python adalah matriks konfusi dan kurva ROC.
  • Cloud TPU
    • Akselerator hardware khusus yang dirancang untuk mempercepat beban kerja machine learning di Google Cloud.
  • image container
    • Image container adalah paket yang menyertakan kode yang dapat dieksekusi komponen dan definisi lingkungan tempat kode dijalankan. Untuk informasi selengkapnya, lihat Ringkasan pelatihan kustom.
  • konteks
    • Konteks digunakan untuk mengelompokkan artefak dan eksekusi dalam satu kategori dengan jenis tertentu yang dapat dikueri. Konteks dapat digunakan untuk merepresentasikan kumpulan metadata. Contoh Konteks adalah operasi pipeline machine learning.
  • cache konteks
    • Cache konteks di Vertex AI adalah data dalam jumlah besar yang dapat digunakan dalam beberapa permintaan ke model Gemini. Konten yang di-cache disimpan di region tempat permintaan untuk membuat cache dibuat. Jenis MIME ini dapat berupa jenis MIME apa pun yang didukung oleh model multimodal Gemini, seperti teks, audio, atau video. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyimpanan ke dalam cache konteks.
  • periode konteks
    • Jumlah token yang dapat diproses model dalam perintah tertentu. Makin besar jendela konteks, makin banyak informasi yang dapat digunakan model untuk memberikan respons yang koheren dan konsisten terhadap perintah.
  • Kunci enkripsi yang dikelola pelanggan (CMEK)
    • Kunci enkripsi yang dikelola pelanggan (CMEK) adalah integrasi yang memungkinkan pelanggan mengenkripsi data di layanan Google yang ada menggunakan kunci yang mereka kelola di Cloud KMS (juga dikenal sebagai Storky). Kunci dalam Cloud KMS adalah kunci enkripsi kunci yang melindungi data mereka. Untuk informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK).
  • CustomJob
    • CustomJob adalah salah satu dari tiga resource Vertex AI yang dapat dibuat pengguna untuk melatih model kustom di Vertex AI. Tugas pelatihan kustom adalah cara dasar untuk menjalankan kode pelatihan machine learning (ML) kustom di Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Membuat tugas pelatihan kustom.
  • Dask
    • Dask adalah platform komputasi terdistribusi yang sering digunakan dengan TensorFlow, Pytorch, dan framework ML lainnya untuk mengelola tugas pelatihan terdistribusi. Untuk informasi selengkapnya, lihat Wikipedia.
  • analisis data
    • Memperoleh pemahaman data dengan mempertimbangkan sampel, pengukuran, dan visualisasi. Analisis data dapat sangat berguna saat pertama kali set data diterima, sebelum membuat model yang pertama. Analisis data juga penting dalam memahami masalah eksperimen dan proses debug dengan sistem.
  • Augmentasi data
    • Secara artifisial, meningkatkan rentang dan jumlah contoh pelatihan dengan mengubah contoh yang ada untuk membuat contoh tambahan. Misalnya, anggaplah gambar adalah salah satu fitur Anda, tetapi set data Anda tidak berisi contoh gambar yang memadai bagi model untuk mempelajari asosiasi yang berguna. Idealnya, tambahkan gambar berlabel yang memadai ke set data Anda agar model Anda dapat dilatih dengan benar. Jika tindakan tersebut tidak memungkinkan, pengayaan data dapat memutar, melebarkan, dan mencerminkan setiap gambar untuk memproduksi berbagai variasi dari gambar aslinya, yang mungkin menghasilkan data berlabel yang memadai agar dapat melakukan pelatihan yang sangat baik.
  • DataFrame
    • Jenis data pandas yang populer untuk merepresentasikan set data dalam memori. DataFrame dapat dianalogikan dengan tabel atau spreadsheet. Setiap kolom DataFrame memiliki nama (header), dan setiap baris diidentifikasi dengan angka unik.Setiap kolom dalam DataFrame disusun seperti array 2D, kecuali setiap kolom dapat diberi jenis datanya sendiri.
  • set data
    • Set data secara luas didefinisikan sebagai kumpulan data terstruktur atau tidak terstruktur. Kumpulan data mentah, biasanya (tetapi tidak secara eksklusif) diatur dalam salah satu format berikut: file spreadsheet dalam format CSV (nilai yang dipisahkan koma). Untuk informasi lebih lanjut, lihat Membuat set data.
  • decoder
    • Secara umum, setiap sistem ML yang mengonversi dari representasi yang diproses, padat, atau internal menjadi representasi yang lebih mentah, jarang, atau eksternal. Decoder sering kali merupakan komponen dari model yang lebih besar, yang sering dipasangkan dengan encoder. Dalam tugas urutan ke urutan, decoder dimulai dengan status internal yang dihasilkan oleh encoder untuk memprediksi urutan berikutnya.
  • deep neural network (DNN)
    • Jaringan neural dengan beberapa lapisan tersembunyi, biasanya diprogram melalui teknik deep learning.
  • depth
    • Jumlah hal berikut dalam jaringan neural: 1. jumlah lapisan tersembunyi 2. jumlah lapisan output, yang biasanya satu 3. jumlah lapisan penyematan. Misalnya, jaringan neural dengan lima lapisan tersembunyi dan satu lapisan output memiliki kedalaman 6. Perhatikan bahwa lapisan input tidak memengaruhi kedalaman.
  • DevOps
    • DevOps adalah serangkaian produk Google Cloud Platform, misalnya, Artifact Registry, Cloud Deploy.
  • penghentian awal
    • Metode untuk regularisasi yang melibatkan penghentian pelatihan sebelum kerugian pelatihan selesai menurun. Dalam penghentian awal, Anda sengaja menghentikan pelatihan model saat kerugian pada set data validasi mulai meningkat; yaitu, saat performa generalisasi memburuk.
  • penyematan
    • Representasi numerik dari kata atau bagian teks. Angka ini menangkap makna semantik dan konteks teks. Kata atau teks yang serupa atau terkait cenderung memiliki penyematan yang serupa, yang berarti keduanya lebih dekat dalam ruang vektor berdimensi tinggi.
  • ruang penyematan (ruang laten)
    • Dalam AI Generatif, ruang penyematan mengacu pada representasi numerik teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning, terutama model AI generatif, mahir membuat penyematan ini dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan penyematan untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten.
  • vektor penyematan
    • Representasi vektor padat, sering kali berdimensi rendah, dari suatu item sehingga, jika dua item serupa secara semantik, masing-masing embedding-nya akan berdekatan satu sama lain di ruang vektor embedding.
  • encoder
    • Secara umum, sistem ML apa pun yang mengonversi dari representasi mentah, jarang, atau eksternal menjadi representasi yang lebih diproses, lebih padat, atau lebih internal. Encoder sering kali merupakan komponen dari model yang lebih besar, yang sering dipasangkan dengan decoder. Beberapa transformer menyambungkan encoder dengan decoder, meskipun transformer lainnya hanya menggunakan encoder atau hanya decoder. Beberapa sistem menggunakan output encoder sebagai input ke jaringan klasifikasi atau regresi. Dalam tugas urutan ke urutan, encoder mengambil urutan input dan menampilkan status internal (vektor). Kemudian, dekoder menggunakan status internal tersebut untuk memprediksi urutan berikutnya.
  • ensemble
    • Kumpulan model yang dilatih secara independen yang prediksinya dirata-ratakan atau digabungkan. Dalam banyak kasus, ensemble menghasilkan prediksi yang lebih baik daripada satu model. Misalnya, hutan acak adalah ansambel yang dibuat dari beberapa pohon keputusan. Perhatikan bahwa tidak semua hutan keputusan adalah ensemble.
  • environment
    • Dalam reinforcement learning, dunia yang berisi agen dan memungkinkan agen mengamati status dunia tersebut. Misalnya, dunia yang direpresentasikan dapat berupa game seperti catur, atau dunia fisik seperti labirin. Saat agen menerapkan tindakan ke lingkungan, lingkungan akan bertransisi antar-status.
  • evaluation (eval)
    • Eval, singkatan dari "evaluasi", adalah jenis eksperimen yang mengirimkan kueri sintetis atau yang dicatat ke dalam log melalui dua stack Penelusuran, yaitu stack eksperimental yang menyertakan perubahan Anda dan stack dasar tanpa perubahan Anda. Evaluasi menghasilkan perbedaan dan metrik yang memungkinkan Anda mengevaluasi dampak, kualitas, dan efek lain dari perubahan Anda pada hasil penelusuran dan bagian lain dari pengalaman pengguna Google. Evaluasi digunakan selama penyesuaian, atau iterasi, pada perubahan Anda. Alat ini juga digunakan sebagai bagian dari peluncuran perubahan pada traffic pengguna aktif.
  • peristiwa
    • Peristiwa menjelaskan hubungan antara artefak dan eksekusi. Setiap artefak dapat dihasilkan oleh suatu eksekusi dan digunakan oleh eksekusi lainnya. Peristiwa membantu Anda menentukan asal artefak dalam alur kerja ML dengan merangkai artefak dan eksekusi.
  • eksekusi
    • Eksekusi adalah kumpulan data dari setiap langkah alur kerja machine learning, biasanya dianotasi dengan parameter runtime-nya. Contoh eksekusi meliputi penyerapan data, validasi data, pelatihan model, evaluasi model, dan deployment model.
  • eksperimen
    • Eksperimen adalah konteks yang dapat berisi kumpulan n operasi eksperimen selain proses pipeline tempat pengguna dapat menyelidiki—sebagai suatu grup—berbagai konfigurasi, seperti hyperparameter atau artefak input.
  • operasi eksperimen
    • Operasi eksperimen dapat berisi metrik, parameter, eksekusi, dan artefak yang ditentukan pengguna, serta resource Vertex (misalnya, PipelineJob).
  • analisis data eksploratif
    • Dalam statistik, analisis data eksploratif (EDA) merupakan pendekatan untuk menganalisis set data guna merangkum karakteristik utamanya, sering kali dengan metode visual. Model statistik dapat digunakan ataupun tidak, tetapi utamanya EDA digunakan untuk melihat apa yang dapat ditunjukkan data kepada kita di luar tugas pengujian hipotesis atau pemodelan formal.
  • Skor F1
    • Skor F1 adalah metrik yang digunakan untuk mengevaluasi akurasi output model. Metrik ini sangat berguna untuk menilai performa model pada tugas yang memerlukan presisi dan perolehan, seperti ekstraksi informasi. Untuk model AI generatif, skor F1 dapat digunakan untuk membandingkan prediksi model dengan data kebenaran dasar untuk menentukan akurasi model. Namun, untuk tugas generatif seperti pembuatan ringkasan dan teks, metrik lain seperti skor Rough-L mungkin lebih sesuai.
  • fitur
    • Dalam machine learning (ML), fitur adalah karakteristik atau atribut instance atau entity yang digunakan sebagai input untuk melatih model ML atau membuat prediksi.
  • rekayasa fitur
    • Rekayasa fitur adalah proses mengubah data mentah machine learning (ML) menjadi fitur yang dapat digunakan untuk melatih model ML atau membuat prediksi.
  • grup fitur
    • Grup fitur adalah resource registry fitur yang sesuai dengan tabel sumber BigQuery atau tampilan yang berisi data fitur. Tampilan fitur dapat berisi fitur dan dapat dianggap sebagai pengelompokan logis kolom fitur dalam sumber data.
  • kumpulan data fitur
    • Kumpulan data fitur adalah penggabungan semua nilai fitur yang mendeskripsikan atribut entitas unik pada titik waktu tertentu.
  • registry fitur
    • Registry fitur adalah antarmuka pusat untuk merekam sumber data fitur yang ingin Anda sajikan untuk prediksi online. Untuk mengetahui informasi selengkapnya, lihat Penyiapan Feature Registry.
  • penyajian fitur
    • Penyajian fitur adalah proses mengekspor atau mengambil nilai fitur untuk pelatihan atau inferensi. Di Vertex AI, ada dua jenis penyajian fitur, yaitu layanan online dan offline. Penyajian online mengambil nilai fitur terbaru dari subset sumber data fitur untuk prediksi online. Penyajian offline atau penyaluran batch mengekspor data fitur dalam jumlah besar—termasuk data historis—untuk pemrosesan offline, seperti pelatihan model ML.
  • stempel waktu fitur
    • Stempel waktu fitur menunjukkan kapan serangkaian nilai fitur dalam kumpulan data fitur tertentu untuk entity dihasilkan.
  • nilai fitur
    • Nilai fitur sesuai dengan nilai aktual dan terukur fitur (atribut) dari sebuah instance atau entity. Kumpulan nilai fitur untuk entity unik yang mewakili kumpulan data fitur yang sesuai dengan entity.
  • tampilan fitur
    • Tampilan fitur adalah kumpulan logis fitur yang terwujud dari sumber data BigQuery ke instance penyimpanan online. Tampilan fitur menyimpan dan memperbarui data fitur pelanggan secara berkala, yang diperbarui secara berkala dari sumber BigQuery. Tampilan fitur berkaitan dengan penyimpanan data fitur baik secara langsung maupun melalui pengaitan ke resource registry fitur.
  • model dasar (FM)
    • Model yang dilatih dengan data yang luas sehingga dapat diadaptasi (misalnya, disesuaikan) ke berbagai tugas downstream.
  • Foundation Model Operations (FMOP)
    • FMOps memperluas kemampuan MLOps dan berfokus pada produksi FM terlatih (dilatih dari awal) atau yang disesuaikan (dioptimalkan) secara efisien.
  • generasi
    • Dalam konteks AI generatif, "generasi" mengacu pada proses pembuatan data atau konten baru dari data atau informasi yang ada. Model AI generatif dilatih menggunakan set data yang besar dan dapat mempelajari pola dan hubungan dalam data. Kemudian, model ini dapat menggunakan pengetahuan ini untuk menghasilkan konten baru dan unik yang mirip dengan data pelatihan, tetapi bukan replika persis. Untuk informasi selengkapnya, lihat https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
  • Google Cloud pipeline components SDK
    • Google Cloud pipeline components (GCPC) SDK menyediakan sekumpulan komponen Kubeflow Pipeline bawaan yang berkualitas produksi, berperforma tinggi, dan mudah digunakan. Anda dapat menggunakan Google Cloud Pipeline Components untuk menentukan dan menjalankan pipeline ML di Vertex AI Pipelines serta backend eksekusi pipeline ML lainnya yang sesuai dengan Kubeflow Pipelines. Untuk informasi selengkapnya, lihat Pengantar Komponen Pipeline Google Cloud.
  • Sistem Modem Tersemat Google (GEMS)
    • GEMS adalah framework software tersemat yang menargetkan modem, dan serangkaian alur kerja dan infrastruktur pengembangan yang menyertainya. Visi inti GEMS adalah menyediakan kode sistem modem berkualitas tinggi dengan kemampuan penggunaan kembali yang tinggi di banyak perangkat Google yang berisi modem. Untuk mencapai visi yang luas ini, GEMS menyediakan lingkungan yang komprehensif bagi developer, yang terdiri dari elemen penyusun utama yang digambarkan di bawah.
  • gradien
    • Vektor turunan parsial yang terkait dengan semua variabel independen. Dalam machine learning, gradien adalah vektor turunan parsial dari fungsi model. Gradien mengarah ke arah tanjakan tercuram.
  • grafik
    • Dalam konteks Vertex AI, grafik mengacu pada struktur data yang mewakili hubungan antara entity dan atributnya. Algoritma ini digunakan untuk membuat model dan menganalisis data yang kompleks, seperti grafik pengetahuan, jaringan sosial, dan proses bisnis. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex ML Metadata.
  • ground truth (GT)
    • Ground truth adalah istilah yang digunakan di berbagai bidang untuk merujuk pada kebenaran mutlak dari beberapa masalah keputusan atau pengukuran, bukan estimasi beberapa sistem. Dalam machine learning, istilah "kebenaran dasar" mengacu pada set pelatihan untuk teknik pembelajaran dengan pengawasan.
  • halusinasi
    • Halusinasi dalam AI generatif adalah respons percaya diri oleh AI yang tidak dapat didasarkan pada data pelatihannya. Konten tersebut mungkin salah secara faktual. Dalam konteks pembuatan teks, ini adalah kebohongan acak yang terdengar masuk akal dalam konten teks yang dihasilkannya.
  • heuristic
    • Solusi sederhana dan cepat diterapkan untuk suatu masalah. Misalnya, "Dengan heuristik, kami mencapai 86% akurasi. Saat kami beralih ke jaringan neural dalam, akurasi meningkat hingga 98%".
  • lapisan tersembunyi
    • Lapisan dalam jaringan neural antara lapisan input (fitur) dan lapisan output (prediksi). Setiap lapisan tersembunyi terdiri dari satu atau beberapa neuron. Jaringan neural dalam berisi lebih dari satu lapisan tersembunyi.
  • histogram
    • Tampilan grafis variasi dalam satu set data menggunakan batang. Histogram memvisualisasikan pola yang sulit dideteksi dalam tabel angka sederhana.
  • hyperparameter
    • Hyperparameter mengacu pada variabel yang mengatur proses pelatihan model machine learning. Variabel ini dapat mencakup kecepatan pembelajaran, nilai momentum dalam pengoptimal, dan jumlah unit dalam lapisan tersembunyi terakhir dari model. Penyesuaian hyperparameter di Vertex AI melibatkan beberapa uji coba aplikasi pelatihan dengan nilai yang berbeda untuk hyperparameter yang dipilih, yang ditetapkan dalam batas yang ditentukan. Tujuannya adalah mengoptimalkan setelan hyperparameter untuk memaksimalkan akurasi prediktif model. Untuk informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
  • Imagen
    • Imagen adalah layanan AI generatif text-to-image yang tersedia melalui platform Vertex AI. Model ini memungkinkan pengguna membuat gambar baru, mengedit gambar, menyesuaikan gaya atau model subjek, memberi teks pada gambar, atau mendapatkan jawaban atas pertanyaan tentang konten gambar. Untuk mengetahui informasi selengkapnya, lihat ringkasan Imagen di Vertex AI.
  • Pengenalan gambar
    • Pengenalan gambar adalah proses mengklasifikasikan objek, pola, atau konsep dalam gambar. Pengenalan gambar juga dikenal sebagai klasifikasi gambar. Pengenalan gambar adalah subbidang machine learning dan computer vision.
  • indeks
    • Sekumpulan vektor yang di-deploy bersama untuk penelusuran kemiripan. Vektor dapat ditambahkan ke indeks atau dihapus dari indeks. Kueri penelusuran kemiripan dikeluarkan pada indeks tertentu dan akan menelusuri vektor dalam indeks tersebut.
  • inferensi
    • Dalam konteks platform Vertex AI, inferensi mengacu pada proses menjalankan titik data melalui model machine learning untuk menghitung output, seperti satu skor numerik. Proses ini juga dikenal sebagai "mengoperasikan model machine learning" atau "memasukkan model machine learning ke dalam produksi". Inferensi adalah langkah penting dalam alur kerja machine learning, karena memungkinkan model digunakan untuk membuat prediksi pada data baru. Di Vertex AI, inferensi dapat dilakukan dengan berbagai cara, termasuk prediksi batch dan prediksi online. Prediksi batch melibatkan pengoperasian sekumpulan permintaan prediksi dan menampilkan hasilnya dalam satu file, sedangkan prediksi online memungkinkan prediksi real-time pada setiap titik data.
  • pengambilan informasi (IR)
    • Pengambilan informasi (IR) adalah komponen utama Vertex AI Search. Ini adalah proses menemukan dan mengambil informasi yang relevan dari kumpulan data yang besar. Dalam konteks Vertex AI, IR digunakan untuk mengambil dokumen dari korpus berdasarkan kueri pengguna. Vertex AI menawarkan serangkaian API untuk membantu Anda membuat aplikasi Retrieval Augmented Generation (RAG) Anda sendiri atau membuat mesin Penelusuran Anda sendiri. Untuk mengetahui informasi selengkapnya, lihat Menggunakan Vertex AI Search sebagai backend pengambilan menggunakan RAG Engine.
  • learning rate (ukuran langkah)
    • Kecepatan pembelajaran adalah hyperparameter yang digunakan untuk menyesuaikan proses pengoptimalan model machine learning. Parameter ini menentukan ukuran langkah saat model memperbarui bobotnya selama pelatihan. Kecepatan pemelajaran yang lebih tinggi dapat menyebabkan konvergensi yang lebih cepat, tetapi dapat menyebabkan ketidakstabilan atau overfitting. Sebaliknya, kecepatan pembelajaran yang lebih rendah dapat menyebabkan konvergensi yang lebih lambat, tetapi dapat membantu mencegah overfitting. Untuk informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
  • kerugian (biaya)
    • Selama pelatihan model tersupervisi, ukuran seberapa jauh prediksi model dari labelnya. Fungsi kerugian menghitung kerugian.
  • Machine Learning Metadata
    • ML Metadata (MLMD) adalah library untuk merekam dan mengambil metadata yang terkait dengan alur kerja developer ML dan data scientist. MLMD merupakan bagian integral dari TensorFlow Extended (TFX), tetapi didesain agar dapat digunakan secara independen. Sebagai bagian dari platform TFX yang lebih luas, sebagian besar pengguna hanya berinteraksi dengan MLMD saat memeriksa hasil komponen pipeline, misalnya di notebook atau di TensorBoard.
  • set data terkelola
    • Objek set data yang dibuat dan dihosting oleh Vertex AI.
  • resource metadata
    • Vertex ML Metadata mengekspos model data seperti grafik untuk merepresentasikan metadata yang dihasilkan dan digunakan dari alur kerja ML. Konsep utamanya adalah artefak, eksekusi, peristiwa, dan konteks.
  • MetadataSchema
    • MetadataSchema menjelaskan skema untuk jenis artefak, eksekusi, atau konteks tertentu. MetadataSchemas digunakan untuk memvalidasi pasangan nilai kunci selama pembuatan resource Metadata yang sesuai. Validasi skema hanya dilakukan pada kolom yang cocok antara resource dan MetadataSchema. Skema jenis direpresentasikan menggunakan Objek Skema OpenAPI, yang harus dideskripsikan menggunakan YAML.
  • MetadataStore
    • MetadataStore adalah container tingkat atas untuk resource metadata. MetadataStore bersifat regional dan berkaitan dengan project Google Cloud tertentu. Biasanya, organisasi menggunakan satu MetadataStore bersama untuk resource metadata dalam setiap project.
  • pipeline ML
    • Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container.
  • model
    • Semua model yang telah dilatih maupun tidak. Secara umum, setiap konstruksi matematika yang memproses data input dan menampilkan output. Dengan kata lain, model adalah kumpulan parameter dan struktur yang diperlukan agar sistem dapat membuat prediksi.
  • distilasi model (distilasi pengetahuan, model pengajar-siswa)
    • Distilasi model adalah teknik yang memungkinkan model siswa yang lebih kecil belajar dari model pengajar yang lebih besar. Model siswa dilatih untuk meniru output model pengajar, dan kemudian dapat digunakan untuk menghasilkan data baru atau membuat prediksi. Distilasi model sering digunakan untuk membuat model besar lebih efisien atau membuatnya lebih mudah diakses oleh perangkat dengan resource terbatas. Hal ini juga dapat digunakan untuk meningkatkan generalisasi model dengan mengurangi overfitting.
  • nama resource model
    • Nama resource untuk model sebagai berikut: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Anda dapat menemukan ID model di konsol Cloud pada halaman 'Model Registry'.
  • Network File System (NFS)
    • Sistem klien/server yang memungkinkan pengguna mengakses file di seluruh jaringan dan memperlakukannya seolah-olah berada di direktori file lokal.
  • penyimpanan offline
    • Penyimpanan offline adalah fasilitas penyimpanan yang menyimpan data fitur terbaru dan historis, yang biasanya digunakan untuk melatih model ML. Penyimpanan offline juga berisi nilai fitur terbaru, yang dapat Anda sajikan untuk prediksi online.
  • penyimpanan online
    • Dalam pengelolaan fitur, penyimpanan online adalah fasilitas penyimpanan untuk nilai fitur terbaru yang akan disajikan untuk prediksi online.
  • penyimpanan online
    • Dalam pengelolaan fitur, penyimpanan online adalah fasilitas penyimpanan untuk nilai fitur terbaru yang akan disajikan untuk prediksi online.
  • parameter
    • Parameter adalah nilai input dengan kunci yang mengonfigurasi operasi, mengatur perilaku operasi, dan memengaruhi hasil operasi. Contohnya termasuk kecepatan pembelajaran, tingkat putus sekolah, dan jumlah langkah pelatihan.
  • pipeline
    • Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Pipelines.
  • komponen pipeline
    • Sekumpulan kode mandiri yang melakukan satu langkah dalam alur kerja pipeline, seperti prapemrosesan data, transformasi data, dan pelatihan model.
  • tugas pipeline
    • Tugas pipeline atau operasi pipeline sesuai dengan resource PipelineJob di Vertex AI API. Ini adalah instance eksekusi definisi pipeline ML Anda, yang ditentukan sebagai kumpulan tugas ML yang saling terhubung oleh dependensi input-output.
  • operasi pipeline
    • Satu atau beberapa PipelineJob Vertex dapat dikaitkan dengan eksperimen, dengan setiap PipelineJob direpresentasikan sebagai satu operasi. Dalam konteks ini, parameter operasi disimpulkan oleh parameter PipelineJob. Metrik disimpulkan dari artefak system.Metric yang dihasilkan oleh PipelineJob. Artefak proses disimpulkan dari artefak yang dihasilkan oleh PipelineJob tersebut.
  • template pipeline
    • Definisi alur kerja ML yang dapat digunakan kembali oleh satu atau beberapa pengguna untuk membuat beberapa operasi pipeline.
  • class positif
    • "Kelas positif" mengacu pada hasil atau kategori yang diprediksi oleh model yang dilatih. Misalnya, jika model memprediksi apakah pelanggan akan membeli jaket, class positifnya adalah "pelanggan membeli jaket". Demikian pula, dalam model yang memprediksi pendaftaran pelanggan untuk deposit berjangka, class positifnya adalah "pelanggan mendaftar". Kebalikan dari "kelas negatif".
  • Private Service Connect (PSC)
    • Private Service Connect adalah teknologi yang memungkinkan pelanggan Compute Engine memetakan IP pribadi di jaringan mereka ke jaringan VPC lain atau ke Google API.
  • Antarmuka Private Service Connect (PSC-I)
    • Antarmuka Private Service Connect menyediakan cara bagi produsen untuk memulai koneksi ke resource jaringan apa pun di VPC konsumen secara pribadi.
  • kuantisasi
    • Kuantisasi adalah teknik pengoptimalan model yang digunakan untuk mengurangi presisi angka yang digunakan untuk merepresentasikan parameter model. Hal ini dapat menghasilkan model yang lebih kecil, konsumsi daya yang lebih rendah, dan latensi inferensi yang lebih rendah.
  • Random Forest
    • Random Forest adalah algoritma machine learning yang digunakan untuk klasifikasi dan regresi. Model ini bukan model AI generatif secara langsung, tetapi merupakan komponen yang dapat digunakan dalam sistem AI generatif yang lebih besar. Random forest terdiri dari beberapa pohon keputusan, dan prediksinya adalah agregasi dari prediksi dari setiap pohon ini. Misalnya, dalam tugas klasifikasi, setiap pohon "memberikan suara" untuk suatu class, dan prediksi akhir adalah class dengan suara terbanyak. Untuk informasi selengkapnya, lihat Hutan keputusan.
  • Cluster Ray di Vertex AI
    • Cluster Ray di Vertex AI sudah terintegrasi untuk memastikan ketersediaan kapasitas untuk workload ML penting atau selama musim puncak. Tidak seperti tugas kustom, yang mengharuskan layanan pelatihan untuk merilis resource setelah tugas selesai, cluster Ray akan tetap tersedia hingga dihapus. Untuk mengetahui informasi selengkapnya, lihat ringkasan Ray di Vertex AI.
  • Ray di Vertex AI (RoV)
    • Ray di Vertex AI dirancang agar Anda dapat menggunakan kode Ray open source yang sama untuk menulis program dan mengembangkan aplikasi di Vertex AI dengan sedikit perubahan. Untuk mengetahui informasi selengkapnya, lihat ringkasan Ray di Vertex AI.
  • Ray di Vertex AI SDK untuk Python
    • Ray on Vertex AI SDK untuk Python adalah versi Vertex AI SDK untuk Python yang menyertakan fungsi Ray Client, konektor Ray BigQuery, pengelolaan cluster Ray di Vertex AI, dan prediksi di Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI SDK untuk Python.
  • perolehan
    • Persentase tetangga terdekat sebenarnya yang ditampilkan oleh indeks. Misalnya, jika kueri tetangga terdekat untuk 20 tetangga terdekat menampilkan 19 tetangga terdekat “kebenaran nyata”, perolehannya adalah 19/20x100 = 95%.
  • regulasi
    • Regularisasi adalah teknik yang digunakan untuk mencegah overfitting dalam model machine learning. Overfitting terjadi saat model mempelajari data pelatihan terlalu baik, sehingga menghasilkan performa yang buruk pada data yang belum pernah dilihat. Salah satu jenis regularisasi spesifik yang disebutkan adalah penghentian awal, yaitu pelatihan dihentikan sebelum kerugian pada set data validasi mulai meningkat, yang menunjukkan penurunan performa generalisasi. Untuk informasi selengkapnya, lihat Overfitting: Regularisasi L2.
  • batasan
    • Fungsionalitas untuk "membatasi" penelusuran ke subset indeks dengan menggunakan aturan Boolean. Membatasi disebut juga sebagai "pemfilteran". Dengan Vector Search, Anda dapat menggunakan pemfilteran numerik dan pemfilteran atribut teks.
  • akun layanan
    • Di Google Cloud, akun layanan adalah jenis akun khusus yang digunakan oleh aplikasi atau instance virtual machine (VM), bukan orang. Aplikasi menggunakan akun layanan untuk melakukan panggilan API yang diotorisasi.
  • metrik ringkasan
    • Metrik ringkasan adalah satu nilai untuk setiap kunci metrik dalam suatu operasi eksperimen. Misalnya, akurasi pengujian eksperimen adalah akurasi yang dihitung terhadap set data pengujian di akhir pelatihan yang dapat dicatat sebagai metrik ringkasan nilai tunggal.
  • TensorBoard
    • TensorBoard adalah rangkaian aplikasi web untuk memvisualisasikan dan memahami operasi dan model TensorFlow. Untuk mengetahui informasi selengkapnya, lihat TensorBoard.
  • instance TensorBoard
    • Instance TensorBoard adalah resource regional yang menyimpan Eksperimen Vertex AI TensorBoard yang terkait dengan Project. Anda dapat membuat beberapa instance TensorBoard dalam suatu project jika, misalnya, Anda menginginkan beberapa instance dengan CMEK yang aktif. Hal ini sama dengan resource TensorBoard pada API.
  • Nama Resource TensorBoard
    • Nama Resource TensorBoard digunakan untuk mengidentifikasi instance Vertex AI TensorBoard sepenuhnya. Formatnya adalah sebagai berikut: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • TensorFlow Extended (TFX) adalah platform menyeluruh untuk men-deploy pipeline machine learning produksi berdasarkan platform TensorFlow.
  • selisih waktu
    • Selisih waktu bersifat relatif terhadap awal video.
  • segmen waktu
    • Segmen waktu diidentifikasi dengan selisih waktu awal dan akhir.
  • metrik deret waktu
    • Metrik deret waktu adalah nilai metrik longitudinal dengan setiap nilai mewakili langkah dalam bagian rutinitas pelatihan dari suatu operasi. Metrik deret waktu disimpan di Vertex AI TensorBoard. Eksperimen Vertex AI menyimpan referensi ke resource Vertex TensorBoard.
  • token
    • Token dalam model bahasa adalah unit atom yang dilatih dan digunakan untuk membuat prediksi oleh model, yaitu kata, morfem, dan karakter. Di domain di luar model bahasa, token dapat mewakili jenis unit atom lainnya. Misalnya, dalam computer vision, token mungkin merupakan subset dari gambar. Untuk mengetahui informasi selengkapnya, lihat Mencantumkan dan menghitung token.
  • set pelatihan
    • Di Vertex AI, set pelatihan adalah bagian terbesar dari data Anda (biasanya 80%) yang digunakan untuk melatih model machine learning. Model mempelajari pola dan hubungan dalam data ini untuk membuat prediksi. Set pelatihan berbeda dengan set validasi dan pengujian, yang digunakan untuk mengevaluasi performa model selama dan setelah pelatihan.
  • jalur
    • "Jalur" mengacu pada urutan langkah atau tindakan yang dilakukan oleh agen atau model. Model ini sering digunakan dalam evaluasi model generatif, tempat kemampuan model untuk menghasilkan teks, kode, atau konten lainnya dinilai. Ada beberapa jenis metrik lintasan yang dapat digunakan untuk mengevaluasi model generatif, termasuk pencocokan persis lintasan, pencocokan dalam urutan lintasan, pencocokan urutan apa pun lintasan, dan presisi lintasan. Metrik ini mengukur kesamaan antara output model dan sekumpulan output referensi buatan manusia.
  • Transformer
    • "Transformer" adalah arsitektur jaringan saraf yang mendasari sebagian besar model generatif canggih. Model ini digunakan dalam berbagai aplikasi model bahasa, termasuk terjemahan. Transformer terdiri dari encoder dan decoder; encoder mengonversi teks input menjadi representasi perantara, dan decoder mengonversinya menjadi output yang berguna. Model ini menggunakan mekanisme self-attention untuk mengumpulkan konteks dari kata-kata di sekitar kata yang sedang diproses. Meskipun melatih Transformer memerlukan resource yang signifikan, menyesuaikan Transformer terlatih untuk aplikasi tertentu akan lebih efisien.
  • true positive
    • "Positif benar" mengacu pada prediksi saat model mengidentifikasi kelas positif dengan benar. Misalnya, jika model dilatih untuk mengidentifikasi pelanggan yang akan membeli jaket, positif benar akan memprediksi dengan benar bahwa pelanggan akan melakukan pembelian tersebut.
  • artefak yang tidak dikelola
    • Artefak yang ada di luar konteks Vertex AI.
  • vector
    • Vektor mengacu pada representasi numerik teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning cocok untuk membuat penyematan dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan penyematan untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten. Untuk informasi selengkapnya, lihat Ringkasan Embeddings API.
  • Jenis data Vertex AI
    • Jenis data Vertex AI adalah "gambar", "teks", "tabel", dan "video".
  • Eksperimen Vertex AI
    • Vertex AI Experiments memungkinkan pengguna melacak hal berikut: 1. Langkah-langkah operasi eksperimen (misalnya, prapemrosesan dan pelatihan). 2. Input (misalnya, algoritma, parameter, dan set data). 3. Output dari langkah-langkah tersebut (misalnya, model, checkpoint, dan metrik).
  • Vertex AI Model Registry
    • Vertex AI Model Registry adalah repositori pusat tempat Anda dapat mengelola siklus proses model ML. Dari Vertex AI Model Registry, Anda memiliki ringkasan model sehingga dapat mengatur, melacak, dan melatih versi baru dengan lebih baik. Jika memiliki versi model yang ingin di-deploy, Anda dapat menetapkannya ke endpoint langsung dari registry, atau dengan menggunakan alias, Anda dapat men-deploy model ke endpoint. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Model Registry.
  • Vertex AI SDK untuk Python
    • Vertex AI SDK untuk Python menyediakan fungsi yang serupa dengan library klien Python Vertex AI, hanya saja SDK ini lebih umum dan kurang terperinci.
  • Eksperimen Vertex AI TensorBoard
    • Data yang terkait dengan Eksperimen dapat dilihat di aplikasi web TensorBoard (skalar, histogram, distribusi, dll.). Skalar deret waktu dapat dilihat di Konsol Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Membandingkan dan menganalisis operasi.
  • segmen video
    • Segmen video diidentifikasi dengan selisih waktu awal dan akhir video.
  • virtual private cloud (VPC)
    • Virtual private cloud adalah kumpulan resource komputasi bersama yang dapat dikonfigurasi dan sesuai permintaan, yang dialokasikan di lingkungan cloud publik serta menyediakan tingkat isolasi antara organisasi yang berbeda menggunakan resource tersebut.