-
agent
- Dalam konteks AI generatif, agen adalah software yang secara mandiri merencanakan dan menjalankan serangkaian tindakan untuk mencapai sasaran, yang berpotensi dalam situasi baru. Agen dapat digunakan dalam berbagai aplikasi, seperti natural language processing, machine learning, dan robotika. Misalnya, agen LLM menggunakan model bahasa untuk mengevaluasi lingkungan dan memilih tindakan untuk membantunya mencapai sasaran. Agen LLM dapat digunakan untuk membuat teks, menerjemahkan bahasa, dan menjawab pertanyaan.
-
Endpoint API
- Endpoint API adalah aspek konfigurasi layanan yang menentukan alamat jaringan, yang juga dikenal sebagai endpoint layanan (misalnya, aiplatform.googleapis.com).
-
Kredensial Default Aplikasi (ADC)
- Kredensial Default Aplikasi (ADC) menyediakan cara sederhana untuk mendapatkan kredensial otorisasi yang akan digunakan dalam memanggil Google API. Metode ini paling cocok untuk kasus saat panggilan harus memiliki identitas dan tingkat otorisasi yang sama untuk aplikasi, terlepas dari pengguna. Ini adalah pendekatan yang direkomendasikan untuk memberikan otorisasi panggilan ke Google Cloud API, terutama saat Anda mem-build aplikasi yang di-deploy ke virtual machine Google App Engine (GAE) atau Compute Engine. Untuk informasi selengkapnya, lihat Cara kerja Kredensial Default Aplikasi.
-
Approximate Nearest Neighbor (ANN)
- Layanan Approximate Nearest Neighbor (ANN) adalah solusi berskala tinggi dan latensi rendah untuk menemukan vektor serupa (atau lebih khusus, "embedding") untuk korpus berukuran besar. Untuk informasi selengkapnya, lihat Cara menggunakan Vector Search untuk pencocokan semantik.
-
artefak
- Artefak adalah entity atau bagian data terpisah yang dihasilkan dan digunakan oleh alur kerja machine learning. Contoh artefak meliputi set data, model, file input, dan log pelatihan.
-
Artifact Registry
- Artifact Registry adalah layanan pengelolaan artefak universal. Layanan ini direkomendasikan untuk mengelola container dan artefak lain di Google Cloud. Untuk mengetahui informasi selengkapnya, lihat Artifact Registry.
-
Kecerdasan Buatan (AI)
- Kecerdasan buatan (atau AI) adalah studi dan desain mesin yang tampak "cerdas", yang berarti mesin yang meniru fungsi manusia atau intelektual seperti gerakan mekanis, penalaran, atau pemecahan masalah. Salah satu subbidang AI yang paling populer adalah machine learning, yang menggunakan pendekatan statistik dan berbasis data untuk membuat AI. Namun, beberapa orang menggunakan kedua istilah ini secara bergantian.
-
Augmented Reality (AR)
- Menggabungkan konten digital yang dirender dengan konten dunia nyata, baik melalui layar seperti di ponsel atau sebagai overlay ke dunia yang dilihat melalui optik seperti kacamata. Konten digital harus dilacak ke gerakan kamera atau kacamata (bergantung pada cara tampilan dirender) sehingga tampak seperti bagian dari dunia nyata.
-
autentikasi
- Proses memverifikasi identitas klien (yang mungkin berupa pengguna atau proses lain) untuk mendapatkan akses ke sistem yang aman. Klien yang telah membuktikan identitasnya dikatakan diautentikasi. Untuk mengetahui informasi selengkapnya, lihat Metode autentikasi di Google.
-
Automatic side-by-side (AutoSxS)
- Automatic side-by-side (AutoSxS) adalah alat evaluasi berbantuan model yang membandingkan dua model bahasa besar (LLM) secara berdampingan. Model ini dapat digunakan untuk mengevaluasi performa model AI generatif di Vertex AI Model Registry atau prediksi yang dibuat sebelumnya. AutoSxS menggunakan autorater untuk memutuskan model mana yang memberikan respons yang lebih baik terhadap perintah. AutoSxS tersedia sesuai permintaan dan mengevaluasi model bahasa dengan performa yang sebanding dengan penilai manusia.
-
Automatic Speech Recognition (ASR,Speech to Text)
- Transkripsi otomatis bahasa lisan (ucapan) ke teks.
-
AutoML
- Algoritme machine learning yang "belajar untuk belajar" melalui pengoptimalan black-box. Untuk mengetahui informasi selengkapnya, lihat Glosarium ML.
-
autorater
- Autorater adalah model bahasa yang mengevaluasi kualitas respons model berdasarkan perintah inferensi asli. Model ini digunakan dalam pipeline AutoSxS untuk membandingkan prediksi dari dua model dan menentukan model mana yang berperforma terbaik. Untuk mengetahui informasi selengkapnya, lihat Autorater.
-
dasar pengukuran
- Model yang digunakan sebagai titik referensi untuk membandingkan seberapa baik performa model lain (biasanya, model yang lebih kompleks). Misalnya, model regresi logistik dapat berfungsi sebagai dasar pengukuran yang baik untuk model deep. Untuk masalah tertentu, dasar pengukuran membantu developer model mengukur kuantitas performa minimal yang diharapkan yang harus dicapai model baru agar model baru tersebut berguna. Untuk mengetahui informasi selengkapnya, lihat Set data dasar pengukuran dan target.
-
batch
- Kumpulan contoh yang digunakan dalam satu iterasi pelatihan. Ukuran batch menentukan jumlah contoh dalam batch.
-
ukuran batch
- Jumlah contoh dalam batch. Misalnya, ukuran batch SGD adalah 1, sedangkan ukuran batch mini-batch biasanya antara 10 dan 1.000. Ukuran batch biasanya bernilai tetap selama pelatihan dan inferensi; namun, TensorFlow mengizinkan ukuran batch dinamis.
-
prediksi batch
- Prediksi batch mengambil sekumpulan permintaan prediksi dan mengeluarkan hasilnya dalam satu file. Untuk mengetahui informasi selengkapnya, lihat Mendapatkan prediksi batch.
-
bias
- 1. Stereotip, prasangka, atau preferensi terhadap beberapa hal, orang, atau kelompok dibandingkan yang lain. Bias ini dapat memengaruhi pengumpulan dan interpretasi data, desain sistem, dan cara pengguna berinteraksi dengan sistem. 2. Error sistematis yang disebabkan oleh prosedur sampling atau pelaporan.
-
bidireksional
- Istilah yang digunakan untuk mendeskripsikan sistem yang mengevaluasi teks yang mendahului dan mengikuti bagian teks target. Sebaliknya, sistem searah hanya mengevaluasi teks yang mendahului bagian teks target.
-
Bidirectional Encoder Representations from Transformers (BERT)
- BERT adalah metode prapelatihan representasi bahasa, yang berarti kita melatih model "pemahaman bahasa" tujuan umum pada korpus teks besar (seperti Wikipedia), lalu menggunakan model tersebut untuk tugas NLP downstream yang penting bagi kita (seperti menjawab pertanyaan). BERT mengungguli metode sebelumnya karena merupakan sistem dua arah yang tidak diawasi dan sangat mendalam untuk pra-pelatihan NLP.
-
Bilingual Evaluation Understudy (BLEU)
- Ukuran populer untuk mengevaluasi kualitas algoritma terjemahan mesin dengan membandingkan outputnya dengan output satu atau beberapa terjemahan manusia.
-
peningkatan
- Dalam pelatihan model: Peningkatan dapat merujuk pada teknik augmentasi data yang digunakan untuk meningkatkan ukuran dan keragaman set data pelatihan. Hal ini dilakukan dengan mengubah contoh yang ada untuk membuat contoh tambahan yang beragam, yang dapat meningkatkan performa model, terutama jika set data asli terbatas.
-
kotak pembatas
- Kotak pembatas untuk objek dalam frame video dapat ditentukan menggunakan salah satu dari dua cara, yaitu (i) Menggunakan 2 verteks yang terdiri dari satu set koordinat x,y jika berlawanan secara diagonal dengan persegi panjang. Misalnya: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Menggunakan keempat verteks. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan data video.
-
bucket
- Folder tingkat teratas untuk Cloud Storage. Nama bucket harus unik di semua pengguna Cloud Storage. Bucket berisi file. Untuk informasi selengkapnya, lihat Ringkasan produk Cloud Storage.
-
Chain-of-Thought
- Dalam AI generatif, Chain-of-Thought (CoT) adalah teknik perintah yang mendorong model bahasa besar (LLM) untuk secara eksplisit menjelaskan proses penalarannya sebelum sampai pada kesimpulan. Hal ini melibatkan perintah kepada model untuk menampilkan langkah-langkah perantara yang diperlukan untuk menyelesaikan masalah, bukan hanya memberikan jawaban akhir. Metode ini dapat meningkatkan performa LLM secara signifikan pada tugas penalaran yang kompleks.
-
chat
- Konten dialog dua arah dengan sistem ML, biasanya model bahasa besar. Interaksi sebelumnya dalam chat (apa yang Anda ketik dan bagaimana model bahasa besar merespons) menjadi konteks untuk bagian chat berikutnya. Chatbot adalah aplikasi model bahasa besar.
-
checkpoint
- Data yang merekam status parameter model selama pelatihan atau setelah pelatihan selesai. Misalnya, selama pelatihan, Anda dapat: 1. Menghentikan pelatihan, mungkin secara sengaja atau mungkin sebagai akibat dari error tertentu. 2. Ambil checkpoint. 3. Kemudian, muat ulang titik pemeriksaan, mungkin di hardware yang berbeda. 4. Mulai ulang pelatihan. Dalam Gemini, titik pemeriksaan mengacu pada versi tertentu dari model Gemini yang dilatih pada set data tertentu.
-
model klasifikasi
- Model yang prediksinya adalah class. Misalnya, berikut adalah semua model klasifikasi: Model yang memprediksi bahasa kalimat input (Prancis? Spanyol? Italia?). Model yang memprediksi spesies pohon (Maple? Oak? Baobab?). Model yang memprediksi class positif atau negatif untuk kondisi medis tertentu.
-
metrik klasifikasi
- Metrik klasifikasi yang didukung di Vertex AI SDK untuk Python adalah matriks konfusi dan kurva ROC.
-
Cloud TPU
- Akselerator hardware khusus yang dirancang untuk mempercepat beban kerja machine learning di Google Cloud.
-
clustering
- Dalam konteks AI generatif, pengelompokan adalah teknik machine learning tanpa pengawasan yang digunakan untuk mengelompokkan titik data serupa berdasarkan karakteristiknya. Hal ini dicapai dengan menentukan ukuran kesamaan (atau metrik) untuk membandingkan titik data, dan mengelompokkan titik data dengan kesamaan tinggi ke dalam cluster yang sama. Dalam aplikasi AI generatif, hal ini mungkin melibatkan pengelompokan embedding (representasi numerik teks, gambar, atau data lainnya) untuk melakukan tugas seperti penelusuran, klasifikasi, atau deteksi outlier. Misalnya, segmentasi pelanggan dapat dilakukan dengan mengelompokkan data pelanggan untuk mengidentifikasi grup dengan perilaku atau karakteristik yang serupa. Untuk mengetahui informasi selengkapnya, lihat Apa yang dimaksud dengan pengelompokan?.
-
image container
- Image container adalah paket yang menyertakan kode yang dapat dieksekusi komponen dan definisi lingkungan tempat kode dijalankan. Untuk informasi selengkapnya, lihat Ringkasan pelatihan kustom.
-
konteks
- Konteks digunakan untuk mengelompokkan artefak dan eksekusi dalam satu kategori dengan jenis tertentu yang dapat dikueri. Konteks dapat digunakan untuk merepresentasikan kumpulan metadata. Contoh Konteks adalah operasi pipeline machine learning.
-
cache konteks
- Cache konteks di Vertex AI adalah data dalam jumlah besar yang dapat digunakan dalam beberapa permintaan ke model Gemini. Konten yang di-cache disimpan di region tempat permintaan untuk membuat cache dibuat. Jenis MIME ini dapat berupa jenis MIME apa pun yang didukung oleh model multimodal Gemini, seperti teks, audio, atau video. Untuk mengetahui informasi selengkapnya, lihat Ringkasan penyimpanan ke dalam cache konteks.
-
periode konteks
- Jumlah token yang dapat diproses model dalam perintah tertentu. Makin besar jendela konteks, makin banyak informasi yang dapat digunakan model untuk memberikan respons yang koheren dan konsisten terhadap perintah.
-
Kunci enkripsi yang dikelola pelanggan (CMEK)
- Kunci enkripsi yang dikelola pelanggan (CMEK) adalah integrasi yang memungkinkan pelanggan mengenkripsi data di layanan Google yang ada menggunakan kunci yang mereka kelola di Cloud KMS (juga dikenal sebagai Storky). Kunci dalam Cloud KMS adalah kunci enkripsi kunci yang melindungi data mereka. Untuk informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK).
-
analisis data
- Memperoleh pemahaman data dengan mempertimbangkan sampel, pengukuran, dan visualisasi. Analisis data dapat sangat berguna saat pertama kali set data diterima, sebelum membuat model yang pertama. Analisis data juga penting dalam memahami masalah eksperimen dan proses debug dengan sistem.
-
Augmentasi data
- Secara artifisial, meningkatkan rentang dan jumlah contoh pelatihan dengan mengubah contoh yang ada untuk membuat contoh tambahan. Misalnya, anggaplah gambar adalah salah satu fitur Anda, tetapi set data Anda tidak berisi contoh gambar yang memadai bagi model untuk mempelajari asosiasi yang berguna. Idealnya, tambahkan gambar berlabel yang memadai ke set data Anda agar model Anda dapat dilatih dengan benar. Jika tindakan tersebut tidak memungkinkan, pengayaan data dapat memutar, melebarkan, dan mencerminkan setiap gambar untuk memproduksi berbagai variasi dari gambar aslinya, yang mungkin menghasilkan data berlabel yang memadai agar dapat melakukan pelatihan yang sangat baik.
-
DataFrame
- Jenis data pandas yang populer untuk merepresentasikan set data dalam memori. DataFrame dapat dianalogikan dengan tabel atau spreadsheet. Setiap kolom DataFrame memiliki nama (header), dan setiap baris diidentifikasi dengan angka unik.Setiap kolom dalam DataFrame disusun seperti array 2D, kecuali setiap kolom dapat diberi jenis datanya sendiri.
-
pengindeksan data
- Dalam konteks AI generatif, pengindeksan data adalah proses penyusunan dan pengaturan basis pengetahuan untuk mengoptimalkan penelusuran dan pengambilan. Hal ini melibatkan pembuatan indeks, yang sering disebut korpus, yang memungkinkan penelusuran data secara efisien. Proses ini terpisah dari pembuatan korpus, dan data yang diindeks dapat digunakan untuk memperkaya konteks model bahasa besar (LLM), mengurangi halusinasi, dan meningkatkan akurasi respons. Misalnya, dalam konteks situs, pengindeksan data mungkin melibatkan penambahan metadata seperti datePublished dan dateModified untuk meningkatkan fungsi penelusuran. Ada berbagai metode untuk mengindeks data, termasuk menggunakan penelusuran vektor untuk penelusuran kemiripan dalam aplikasi seperti mengambil informasi yang relevan untuk LLM pada waktu kueri. Untuk informasi selengkapnya, lihat Ringkasan RAG Engine .
-
penyerapan data
- Proses transfer data adalah proses mengekstrak data dari berbagai sumber dan mengintegrasikannya ke dalam lokasi pusat untuk pemrosesan dan analisis lebih lanjut. Dalam konteks AI generatif, penyerapan data melibatkan ekstraksi informasi dari berbagai sumber data, seperti formulir klinis, catatan pasien, atau teks tidak terstruktur, untuk melatih dan menyesuaikan model AI generatif. Data yang ditransfer biasanya diproses dan diubah untuk memastikan kualitas dan konsistensinya sebelum digunakan untuk melatih model AI generatif. Proses ini dapat melibatkan pembersihan data, rekayasa fitur, dan teknik augmentasi data untuk meningkatkan performa dan kemampuan generalisasi model. Untuk informasi selengkapnya, lihat Menggunakan AI generatif untuk pengelolaan penggunaan.
-
paralelisme data
- Cara menskalakan pelatihan atau inferensi yang mereplikasi seluruh model ke beberapa perangkat, lalu meneruskan sebagian data input ke setiap perangkat. Paralelisme data dapat memungkinkan pelatihan dan inferensi pada ukuran batch yang sangat besar; namun, paralelisme data mengharuskan model cukup kecil agar sesuai dengan semua perangkat. Paralelisme data biasanya mempercepat pelatihan dan inferensi.
-
set data (set data)
- Set data secara luas didefinisikan sebagai kumpulan data terstruktur atau tidak terstruktur. Kumpulan data mentah, biasanya (tetapi tidak secara eksklusif) diatur dalam salah satu format berikut: file spreadsheet dalam format CSV (nilai yang dipisahkan koma). Untuk informasi lebih lanjut, lihat Membuat set data.
-
transformasi data
- Dalam konteks Retrieval Augmented Generation (RAG), transformasi data mengacu pada konversi data menjadi format yang sesuai untuk pengindeksan dan pemrosesan oleh LLM. Hal ini sering kali melibatkan pemisahan data menjadi bagian yang lebih kecil agar mudah disematkan dan diindeks. Transformasi lainnya mungkin mencakup langkah-langkah pembersihan dan validasi untuk memastikan kualitas data. Untuk informasi selengkapnya, lihat Ringkasan RAG Engine.
-
decoder
- Secara umum, setiap sistem ML yang mengonversi dari representasi yang diproses, padat, atau internal menjadi representasi yang lebih mentah, jarang, atau eksternal. Decoder sering kali merupakan komponen dari model yang lebih besar, yang sering dipasangkan dengan encoder. Dalam tugas urutan ke urutan, decoder dimulai dengan status internal yang dihasilkan oleh encoder untuk memprediksi urutan berikutnya.
-
deep neural network (DNN)
- Jaringan neural dengan beberapa lapisan tersembunyi, biasanya diprogram melalui teknik deep learning.
-
depth
- Jumlah hal berikut dalam jaringan neural: 1. jumlah lapisan tersembunyi 2. jumlah lapisan output, yang biasanya satu 3. jumlah lapisan penyematan. Misalnya, jaringan neural dengan lima lapisan tersembunyi dan satu lapisan output memiliki kedalaman 6. Perhatikan bahwa lapisan input tidak memengaruhi kedalaman.
-
DevOps
- DevOps adalah serangkaian produk Google Cloud Platform, misalnya, Artifact Registry, Cloud Deploy.
-
penghentian awal
- Metode untuk regularisasi yang melibatkan penghentian pelatihan sebelum kerugian pelatihan selesai menurun. Dalam penghentian awal, Anda sengaja menghentikan pelatihan model saat kerugian pada set data validasi mulai meningkat; yaitu, saat performa generalisasi memburuk.
-
penyematan
- Representasi numerik dari kata atau bagian teks. Angka ini menangkap makna semantik dan konteks teks. Kata atau teks yang serupa atau terkait cenderung memiliki penyematan yang serupa, yang berarti keduanya lebih dekat dalam ruang vektor berdimensi tinggi.
-
ruang penyematan (ruang laten)
- Dalam AI Generatif, ruang sematan mengacu pada representasi numerik teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning, terutama model AI generatif, mahir membuat penyematan ini dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan penyematan untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang khusus untuk konten.
-
vektor penyematan
- Representasi vektor padat, sering kali berdimensi rendah, dari suatu item sehingga, jika dua item serupa secara semantik, masing-masing embedding-nya akan berdekatan satu sama lain di ruang vektor embedding.
-
encoder
- Secara umum, sistem ML apa pun yang mengonversi dari representasi mentah, jarang, atau eksternal menjadi representasi yang lebih diproses, lebih padat, atau lebih internal. Encoder sering kali merupakan komponen dari model yang lebih besar, yang sering dipasangkan dengan decoder. Beberapa transformer menyambungkan encoder dengan decoder, meskipun transformer lainnya hanya menggunakan encoder atau hanya decoder. Beberapa sistem menggunakan output encoder sebagai input ke jaringan klasifikasi atau regresi. Dalam tugas urutan ke urutan, encoder mengambil urutan input dan menampilkan status internal (vektor). Kemudian, dekoder menggunakan status internal tersebut untuk memprediksi urutan berikutnya.
-
ensemble
- Kumpulan model yang dilatih secara independen yang prediksinya dirata-ratakan atau digabungkan. Dalam banyak kasus, ensemble menghasilkan prediksi yang lebih baik daripada satu model. Misalnya, hutan acak adalah ansambel yang dibuat dari beberapa pohon keputusan. Perhatikan bahwa tidak semua hutan keputusan adalah ensemble.
-
lingkungan
- Dalam reinforcement learning, dunia yang berisi agen dan memungkinkan agen mengamati status dunia tersebut. Misalnya, dunia yang direpresentasikan dapat berupa game seperti catur, atau dunia fisik seperti labirin. Saat agen menerapkan tindakan ke lingkungan, lingkungan akan bertransisi antar-status.
-
evaluation (eval)
- Eval, singkatan dari "evaluasi", adalah jenis eksperimen yang mengirimkan kueri sintetis atau yang dicatat ke dalam log melalui dua stack Penelusuran, yaitu stack eksperimental yang menyertakan perubahan Anda dan stack dasar tanpa perubahan Anda. Evaluasi menghasilkan perbedaan dan metrik yang memungkinkan Anda mengevaluasi dampak, kualitas, dan efek lain dari perubahan Anda pada hasil penelusuran dan bagian lain dari pengalaman pengguna Google. Evaluasi digunakan selama penyesuaian, atau iterasi, pada perubahan Anda. Alat ini juga digunakan sebagai bagian dari peluncuran perubahan pada traffic pengguna aktif.
-
eksekusi
- Eksekusi adalah kumpulan data dari setiap langkah alur kerja machine learning, biasanya dianotasi dengan parameter runtime-nya. Contoh eksekusi meliputi penyerapan data, validasi data, pelatihan model, evaluasi model, dan deployment model.
-
Skor F1
- Skor F1 adalah metrik yang digunakan untuk mengevaluasi akurasi output model. Hal ini sangat berguna untuk menilai performa model pada tugas yang memerlukan presisi dan perolehan, seperti ekstraksi informasi. Untuk model AI generatif, skor F1 dapat digunakan untuk membandingkan prediksi model dengan data kebenaran dasar untuk menentukan akurasi model. Namun, untuk tugas generatif seperti pembuatan ringkasan dan teks, metrik lain seperti skor Rough-L mungkin lebih sesuai.
-
fitur
- Dalam machine learning (ML), fitur adalah karakteristik atau atribut instance atau entity yang digunakan sebagai input untuk melatih model ML atau membuat prediksi.
-
Ekstraksi fitur
- Dalam konteks AI generatif, ekstraksi fitur mengacu pada proses identifikasi dan pemilihan fitur yang relevan dari data input yang akan digunakan dalam pelatihan model. Fitur ini kemudian digunakan untuk menghasilkan data baru yang menyerupai input asli. Misalnya, dalam pembuatan gambar, ekstraksi fitur mungkin melibatkan identifikasi tepi, tekstur, dan warna. Dalam natural language processing, hal ini dapat melibatkan ekstraksi kata kunci, frasa, dan struktur tata bahasa. Fitur yang diekstrak kemudian digunakan oleh model generatif untuk membuat konten baru.
-
penyajian fitur
- Penyajian fitur adalah proses mengekspor atau mengambil nilai fitur untuk pelatihan atau inferensi. Di Vertex AI, ada dua jenis penyajian fitur, yaitu layanan online dan offline. Penyajian online mengambil nilai fitur terbaru dari subset sumber data fitur untuk prediksi online. Penyajian offline atau penyaluran batch mengekspor data fitur dalam jumlah besar—termasuk data historis—untuk pemrosesan offline, seperti pelatihan model ML.
-
tampilan fitur
- Tampilan fitur adalah kumpulan logis fitur yang terwujud dari sumber data BigQuery ke instance penyimpanan online. Tampilan fitur menyimpan dan memperbarui data fitur pelanggan secara berkala, yang diperbarui secara berkala dari sumber BigQuery. Tampilan fitur berkaitan dengan penyimpanan data fitur baik secara langsung maupun melalui pengaitan ke resource registry fitur.
-
perintah few-shot (few-shot)
- Dalam AI generatif, "few-shot" mengacu pada jenis perintah yang menyertakan sejumlah kecil contoh untuk memandu respons model. Contoh ini membantu model memahami format output, frasa, cakupan, atau pola umum respons yang diinginkan. Perintah few-shot sering digunakan untuk mengatur output model bahasa, memastikan bahwa model tersebut menghasilkan respons yang akurat, berkualitas tinggi, dan konsisten dengan ekspektasi pengguna. Dengan memberikan beberapa contoh yang relevan kepada model, pengguna dapat memengaruhi perilaku model dan mendapatkan hasil yang lebih memuaskan. Untuk informasi selengkapnya, lihat Menyertakan contoh few-shot.
-
model dasar (FM)
- Model yang dilatih dengan data yang luas sehingga dapat diadaptasi (misalnya, disesuaikan) ke berbagai tugas downstream.
-
Foundation Model Operations (FMOP)
- FMOps memperluas kemampuan MLOps dan berfokus pada produksi FM terlatih (dilatih dari awal) atau yang disesuaikan (dioptimalkan) secara efisien.
-
Gemini
- Gemini adalah serangkaian model multimodal berbasis urutan besar Google. Artinya, model ini dapat menerima input dan menghasilkan output dalam lebih dari satu media sekaligus, termasuk media teks, audio, dan visual. Model ini dirancang untuk berintegrasi dengan agen yang mampu melakukan berbagai tugas. Untuk mengetahui informasi selengkapnya, lihat Model Google.
-
generalisasi
- Kemampuan model untuk membuat prediksi yang benar pada data baru yang sebelumnya tidak terlihat. Model yang dapat digeneralisasi adalah kebalikan dari model yang mengalami overfitting.
-
generasi
- Dalam konteks AI generatif, "generasi" mengacu pada proses pembuatan data atau konten baru dari data atau informasi yang ada. Model AI generatif dilatih menggunakan set data dalam jumlah besar dan dapat mempelajari pola dan hubungan dalam data. Kemudian, model ini dapat menggunakan pengetahuan ini untuk menghasilkan konten baru dan unik yang mirip dengan data pelatihan, tetapi bukan replika persis. Untuk informasi selengkapnya, lihat https://cloud.google.com/docs/ai-ml/generative-ai/generative-ai-or-traditional-ai.
-
model generatif
- Jenis model machine learning yang dapat membuat output baru berdasarkan data pelatihannya. Secara sederhana, model menghasilkan data baru yang terlihat seperti kumpulan kategori tertentu yang digunakan untuk melatihnya. Biasanya dikaitkan dengan model bahasa besar, tetapi jenis model lainnya juga dapat bersifat generatif.
-
Sistem Modem Tersemat Google (GEMS)
- GEMS adalah framework software tersemat yang menargetkan modem, dan serangkaian alur kerja dan infrastruktur pengembangan yang menyertainya. Visi inti GEMS adalah menyediakan kode sistem modem berkualitas tinggi dengan kemampuan penggunaan kembali yang tinggi di banyak perangkat Google yang berisi modem. Untuk mencapai visi yang luas ini, GEMS menyediakan lingkungan yang komprehensif bagi developer, yang terdiri dari elemen penyusun utama yang digambarkan di bawah.
-
gradien
- Vektor turunan parsial yang terkait dengan semua variabel independen. Dalam machine learning, gradien adalah vektor turunan parsial dari fungsi model. Gradien mengarah ke arah tanjakan tercuram.
-
grafik
- Dalam konteks AI generatif, grafik mengacu pada representasi informasi terstruktur yang mengatur dan menghubungkan data sebagai jaringan node dan tepi. Grafik ini sering digunakan untuk merepresentasikan pengetahuan dan hubungan antar-entitas, sehingga sangat berguna untuk sistem AI generatif yang memerlukan pemahaman mendalam tentang konteks dan hubungan dalam data. Sistem GenAI yang memanfaatkan grafik pengetahuan dapat menggunakannya untuk meningkatkan performa model pengambilan. Dengan menggabungkan grafik pengetahuan ke dalam sistem, AI generatif dapat mengakses data yang kaya konteks dan menjelajahi grafik untuk mengambil subgrafik yang relevan berdasarkan kueri pengguna. Hal ini memungkinkan sistem memberikan respons yang lebih akurat dan informatif dengan menghasilkan konten yang relevan secara kontekstual.
-
ground truth (GT)
- Ground truth adalah istilah yang digunakan di berbagai bidang untuk merujuk pada kebenaran mutlak dari beberapa masalah keputusan atau pengukuran, bukan estimasi beberapa sistem. Dalam machine learning, istilah "kebenaran dasar" mengacu pada set pelatihan untuk teknik pembelajaran dengan pengawasan.
-
halusinasi
- Halusinasi dalam AI generatif adalah respons percaya diri oleh AI yang tidak dapat didasarkan pada data pelatihannya. Konten tersebut mungkin salah secara faktual. Dalam konteks pembuatan teks, ini adalah kebohongan acak yang terdengar masuk akal dalam konten teks yang dihasilkannya.
-
heuristic
- Solusi sederhana dan cepat diterapkan untuk suatu masalah. Misalnya, "Dengan heuristik, kami mencapai 86% akurasi. Saat kami beralih ke jaringan neural dalam, akurasi meningkat hingga 98%".
-
lapisan tersembunyi
- Lapisan dalam jaringan neural antara lapisan input (fitur) dan lapisan output (prediksi). Setiap lapisan tersembunyi terdiri dari satu atau beberapa neuron. Jaringan neural dalam berisi lebih dari satu lapisan tersembunyi.
-
histogram
- Tampilan grafis variasi dalam satu set data menggunakan batang. Histogram memvisualisasikan pola yang sulit dideteksi dalam tabel angka sederhana.
-
hyperparameter
- Hyperparameter mengacu pada variabel yang mengatur proses pelatihan model machine learning. Variabel ini dapat mencakup kecepatan pembelajaran, nilai momentum dalam pengoptimal, dan jumlah unit dalam lapisan tersembunyi terakhir dari model. Penyesuaian hyperparameter di Vertex AI melibatkan beberapa uji coba aplikasi pelatihan dengan nilai yang berbeda untuk hyperparameter yang dipilih, yang ditetapkan dalam batas yang ditentukan. Tujuannya adalah mengoptimalkan setelan hyperparameter untuk memaksimalkan akurasi prediktif model. Untuk informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
Imagen
- Imagen adalah layanan AI generatif text-to-image yang tersedia melalui platform Vertex AI. Model ini memungkinkan pengguna membuat gambar baru, mengedit gambar, menyesuaikan gaya atau model subjek, memberi teks pada gambar, atau mendapatkan jawaban atas pertanyaan tentang konten gambar. Untuk mengetahui informasi selengkapnya, lihat ringkasan Imagen di Vertex AI.
-
Pengenalan gambar
- Pengenalan gambar adalah proses mengklasifikasikan objek, pola, atau konsep dalam gambar. Pengenalan gambar juga dikenal sebagai klasifikasi gambar. Pengenalan gambar adalah subbidang machine learning dan computer vision.
-
indeks
- Sekumpulan vektor yang di-deploy bersama untuk penelusuran kemiripan. Vektor dapat ditambahkan ke indeks atau dihapus dari indeks. Kueri penelusuran kemiripan dikeluarkan pada indeks tertentu dan akan menelusuri vektor dalam indeks tersebut.
-
inferensi
- Dalam konteks platform Vertex AI, inferensi mengacu pada proses menjalankan titik data melalui model machine learning untuk menghitung output, seperti satu skor numerik. Proses ini juga dikenal sebagai "mengoperasikan model machine learning" atau "memasukkan model machine learning ke dalam produksi". Inferensi adalah langkah penting dalam alur kerja machine learning, karena memungkinkan model digunakan untuk membuat prediksi pada data baru. Di Vertex AI, inferensi dapat dilakukan dengan berbagai cara, termasuk prediksi batch dan prediksi online. Prediksi batch melibatkan pengoperasian sekumpulan permintaan prediksi dan menampilkan hasilnya dalam satu file, sedangkan prediksi online memungkinkan prediksi real-time pada setiap titik data.
-
pengambilan informasi (IR)
- Pengambilan informasi (IR) adalah komponen utama Vertex AI Search. Ini adalah proses menemukan dan mengambil informasi yang relevan dari kumpulan data yang besar. Dalam konteks Vertex AI, IR digunakan untuk mengambil dokumen dari korpus berdasarkan kueri pengguna. Vertex AI menawarkan serangkaian API untuk membantu Anda membuat aplikasi Retrieval Augmented Generation (RAG) Anda sendiri atau membuat mesin Penelusuran Anda sendiri. Untuk mengetahui informasi selengkapnya, lihat Menggunakan Vertex AI Search sebagai backend pengambilan menggunakan RAG Engine.
-
learning rate (ukuran langkah)
- Kecepatan pembelajaran adalah hyperparameter yang digunakan untuk menyesuaikan proses pengoptimalan model machine learning. Parameter ini menentukan ukuran langkah saat model memperbarui bobotnya selama pelatihan. Kecepatan pemelajaran yang lebih tinggi dapat menyebabkan konvergensi yang lebih cepat, tetapi dapat menyebabkan ketidakstabilan atau overfitting. Sebaliknya, kecepatan pembelajaran yang lebih rendah dapat menyebabkan konvergensi yang lebih lambat, tetapi dapat membantu mencegah overfitting. Untuk informasi selengkapnya, lihat Ringkasan penyesuaian hyperparameter.
-
kerugian (biaya)
- Selama pelatihan model dengan pengawasan, ukuran seberapa jauh prediksi model dari labelnya. Fungsi kerugian menghitung kerugian.
-
set data terkelola
- Objek set data yang dibuat dan dihosting oleh Vertex AI.
-
model
- Semua model yang telah dilatih maupun tidak. Secara umum, setiap konstruksi matematika yang memproses data input dan menampilkan output. Dengan kata lain, model adalah kumpulan parameter dan struktur yang diperlukan agar sistem dapat membuat prediksi.
-
distilasi model (distilasi pengetahuan, model pengajar-siswa)
- Distilasi model adalah teknik yang memungkinkan model siswa yang lebih kecil belajar dari model pengajar yang lebih besar. Model siswa dilatih untuk meniru output model pengajar, dan kemudian dapat digunakan untuk menghasilkan data baru atau membuat prediksi. Distilasi model sering digunakan untuk membuat model besar lebih efisien atau membuatnya lebih mudah diakses oleh perangkat dengan resource terbatas. Hal ini juga dapat digunakan untuk meningkatkan generalisasi model dengan mengurangi overfitting.
-
nama resource model
- Nama resource untuk
model
sebagai berikut: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Anda dapat menemukan ID model di konsol Cloud pada halaman 'Model Registry'.
- Nama resource untuk
-
Network File System (NFS)
- Sistem klien/server yang memungkinkan pengguna mengakses file di seluruh jaringan dan memperlakukannya seolah-olah berada di direktori file lokal.
-
enkode one-hot
- Enkode one-hot biasanya digunakan untuk merepresentasikan string atau ID yang memiliki kemungkinan set nilai yang terbatas. Untuk informasi selengkapnya, lihat Data kategoris: Kosakata dan encoding one-hot.
-
perintah one-shot
- Perintah yang berisi satu contoh yang menunjukkan bagaimana model bahasa besar harus merespons. Untuk mengetahui informasi selengkapnya, lihat perintah one-shot.
-
parameter
- Parameter adalah nilai input dengan kunci yang mengonfigurasi operasi, mengatur perilaku operasi, dan memengaruhi hasil operasi. Contohnya termasuk kecepatan pembelajaran, tingkat putus sekolah, dan jumlah langkah pelatihan.
-
perplexity
- Perplexity adalah metrik yang digunakan untuk mengevaluasi performa model bahasa. Model ini mengukur seberapa besar kemungkinan model menghasilkan urutan teks tertentu berdasarkan distribusi teks yang digunakan untuk melatihnya. Perplexity adalah metrik yang biasa digunakan untuk mengevaluasi model bahasa dan sering digunakan untuk membandingkan performa berbagai model atau melacak progres model selama pelatihan.
-
pipeline
- Pipeline ML adalah alur kerja ML portabel dan skalabel yang didasarkan pada container. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Pipelines.
-
tugas pipeline
- Tugas pipeline atau operasi pipeline sesuai dengan resource PipelineJob di Vertex AI API. Ini adalah instance eksekusi definisi pipeline ML Anda, yang ditentukan sebagai kumpulan tugas ML yang saling terhubung oleh dependensi input-output.
-
operasi pipeline
- Satu atau beberapa PipelineJob Vertex dapat dikaitkan dengan eksperimen, dengan setiap PipelineJob direpresentasikan sebagai satu operasi. Dalam konteks ini, parameter operasi disimpulkan oleh parameter PipelineJob. Metrik disimpulkan dari artefak system.Metric yang dihasilkan oleh PipelineJob. Artefak proses disimpulkan dari artefak yang dihasilkan oleh PipelineJob tersebut.
-
akses layanan pribadi
- Akses layanan pribadi adalah koneksi pribadi antara jaringan Virtual Private Cloud (VPC) Anda dan jaringan yang dimiliki oleh Google atau penyedia layanan pihak ketiga. Hal ini memungkinkan instance virtual machine (VM) di jaringan VPC Anda berkomunikasi dengan layanan ini menggunakan alamat IP internal, sehingga menghindari eksposur ke internet publik. Untuk informasi selengkapnya, lihat Akses layanan pribadi.
-
perintah
- Perintah adalah permintaan natural language yang dikirimkan ke model bahasa untuk menerima respons kembali. Perintah dapat berisi pertanyaan, petunjuk, informasi kontekstual, contoh few-shot, dan input parsial agar model dapat diselesaikan atau dilanjutkan. Setelah menerima perintah, bergantung pada jenis model yang digunakan, model dapat menghasilkan teks, penyematan, kode, gambar, video, musik, dan lainnya. Untuk informasi selengkapnya, lihat Ringkasan strategi perintah.
-
prompt engineering (desain perintah)
- Rekayasa perintah dalam AI generatif adalah proses pembuatan perintah yang efektif untuk mendapatkan output yang diinginkan dari model bahasa besar (LLM). Ini adalah proses iteratif yang berbasis pengujian dan berfokus pada penyempurnaan input untuk mencapai hasil tertentu. Hal ini melibatkan pertimbangan konten dan struktur perintah untuk memastikan respons yang akurat dan berkualitas tinggi. Rekayasa perintah yang efektif sangat penting untuk tugas yang kompleks, meskipun tugas yang lebih sederhana mungkin tidak memerlukannya. Tujuannya adalah membuat prototipe aplikasi berbasis LLM dengan cepat. Untuk informasi selengkapnya, lihat Pengantar rekayasa perintah.
-
penyesuaian perintah
- Penyesuaian perintah adalah metode penyesuaian yang efisien parameter yang digunakan untuk meningkatkan performa model AI generatif pada tugas tertentu. Hal ini melibatkan pembelajaran "awalan" yang ditambahkan ke perintah sebenarnya, terkadang di setiap lapisan. Pendekatan ini dianggap lebih murah dan lebih cepat daripada metode penyesuaian lainnya, yang sering kali memberikan hasil yang baik. Penyesuaian perintah sangat efektif jika Anda memiliki tugas tertentu dan ingin model melakukannya dengan cara tertentu. Hal ini juga terkadang disebut sebagai prompt learning atau parameter-efficient (fine) tuning. Untuk informasi selengkapnya, lihat Pengantar rekayasa perintah.
-
Throughput yang Disediakan (PT)
- Throughput yang Disediakan (PT) adalah layanan premium untuk model AI generatif Vertex AI yang menawarkan pengalaman terjamin melalui jaminan kapasitas dan harga yang dapat diprediksi. Tidak seperti opsi bayar sesuai penggunaan (on-demand), PT memungkinkan pelanggan membeli kuota khusus, sehingga memastikan permintaan mereka tidak bersaing dengan kapasitas model orang lain. PT adalah langganan bulanan atau mingguan dengan biaya tetap yang mencadangkan throughput untuk model dan lokasi tertentu. Untuk informasi selengkapnya, lihat Ringkasan Throughput yang Disediakan.
-
kuantisasi
- Kuantisasi adalah teknik pengoptimalan model yang digunakan untuk mengurangi presisi angka yang digunakan untuk merepresentasikan parameter model. Hal ini dapat menghasilkan model yang lebih kecil, konsumsi daya yang lebih rendah, dan latensi inferensi yang lebih rendah.
-
Random Forest
- Random Forest adalah algoritma machine learning yang digunakan untuk klasifikasi dan regresi. Model ini bukan model AI generatif secara langsung, tetapi merupakan komponen yang dapat digunakan dalam sistem AI generatif yang lebih besar. Random forest terdiri dari beberapa pohon keputusan, dan prediksinya adalah agregasi dari prediksi dari setiap pohon ini. Misalnya, dalam tugas klasifikasi, setiap pohon "memberikan suara" untuk suatu class, dan prediksi akhir adalah class dengan suara terbanyak. Untuk informasi selengkapnya, lihat Hutan keputusan.
-
Cluster Ray di Vertex AI
- Cluster Ray di Vertex AI adalah cluster node komputasi terkelola yang dapat digunakan untuk menjalankan aplikasi Python dan machine learning (ML) terdistribusi. Ray menyediakan infrastruktur untuk melakukan komputasi terdistribusi dan pemrosesan paralel untuk alur kerja ML Anda. Cluster Ray di-build ke dalam Vertex AI untuk memastikan ketersediaan kapasitas untuk workload ML penting atau selama musim puncak. Tidak seperti tugas kustom, yang mengharuskan layanan pelatihan untuk merilis resource setelah tugas selesai, cluster Ray akan tetap tersedia hingga dihapus. Untuk mengetahui informasi selengkapnya, lihat ringkasan Ray di Vertex AI.
-
Ray di Vertex AI (RoV)
- Ray di Vertex AI dirancang agar Anda dapat menggunakan kode Ray open source yang sama untuk menulis program dan mengembangkan aplikasi di Vertex AI dengan sedikit perubahan. Untuk mengetahui informasi selengkapnya, lihat ringkasan Ray di Vertex AI.
-
Ray di Vertex AI SDK untuk Python
- Ray on Vertex AI SDK untuk Python adalah versi Vertex AI SDK untuk Python yang menyertakan fungsi Ray Client, konektor Ray BigQuery, pengelolaan cluster Ray di Vertex AI, dan prediksi di Vertex AI. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI SDK untuk Python.
-
perolehan
- Persentase tetangga terdekat sebenarnya yang ditampilkan oleh indeks. Misalnya, jika kueri tetangga terdekat untuk 20 tetangga terdekat menampilkan 19 tetangga terdekat “kebenaran nyata”, perolehannya adalah 19/20x100 = 95%.
-
sistem rekomendasi
- Sistem rekomendasi adalah sistem berbasis machine learning yang membantu pengguna menemukan konten menarik dalam korpus besar. Algoritma ini menghasilkan subset kandidat yang lebih kecil dari korpus yang berpotensi besar, memberi skor dan peringkat kandidat, serta memberi peringkat ulang peringkat akhir untuk mempertimbangkan batasan tambahan. Untuk informasi selengkapnya, lihat Ringkasan sistem rekomendasi.
-
regulasi
- Regularisasi adalah teknik yang digunakan untuk mencegah overfitting dalam model machine learning. Overfitting terjadi saat model mempelajari data pelatihan terlalu baik, sehingga menghasilkan performa yang buruk pada data yang belum pernah dilihat. Salah satu jenis regularisasi spesifik yang disebutkan adalah penghentian awal, yaitu pelatihan dihentikan sebelum kerugian pada set data validasi mulai meningkat, yang menunjukkan penurunan performa generalisasi. Untuk informasi selengkapnya, lihat Overfitting: Regularisasi L2.
-
akun layanan
- Di Google Cloud, akun layanan adalah jenis akun khusus yang digunakan oleh aplikasi atau instance virtual machine (VM), bukan orang. Aplikasi menggunakan akun layanan untuk melakukan panggilan API yang diotorisasi.
-
agen layanan
- Agen layanan mengacu pada akun layanan yang dikelola Google. Ini digunakan saat layanan memerlukan akses ke resource yang dibuat oleh layanan lain. Misalnya, saat layanan Dataflow atau Dataproc perlu membuat instance selama runtime atau saat Cloud Function ingin menggunakan Key Management Service (KMS) untuk melindungi Cloud Function. Agen layanan dibuat secara otomatis oleh Google Cloud saat layanan memerlukannya. API ini biasanya digunakan untuk mengelola akses ke resource dan melakukan berbagai tugas atas nama layanan. Untuk mengetahui informasi selengkapnya, lihat Agen layanan.
-
metrik ringkasan
- Metrik ringkasan adalah satu nilai untuk setiap kunci metrik dalam suatu operasi eksperimen. Misalnya, akurasi pengujian eksperimen adalah akurasi yang dihitung terhadap set data pengujian di akhir pelatihan yang dapat dicatat sebagai metrik ringkasan nilai tunggal.
-
TensorBoard
- TensorBoard adalah rangkaian aplikasi web untuk memvisualisasikan dan memahami operasi dan model TensorFlow. Untuk mengetahui informasi selengkapnya, lihat TensorBoard.
-
instance TensorBoard
- Instance TensorBoard adalah resource regional yang menyimpan Eksperimen Vertex AI TensorBoard yang terkait dengan Project. Anda dapat membuat beberapa instance TensorBoard dalam suatu project jika, misalnya, Anda menginginkan beberapa instance dengan CMEK yang aktif. Hal ini sama dengan resource TensorBoard pada API.
-
Nama Resource TensorBoard
- Nama Resource TensorBoard digunakan untuk mengidentifikasi instance Vertex AI TensorBoard sepenuhnya. Formatnya adalah sebagai berikut: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
-
selisih waktu
- Selisih waktu bersifat relatif terhadap awal video.
-
metrik deret waktu
- Metrik deret waktu adalah nilai metrik longitudinal dengan setiap nilai mewakili langkah dalam bagian rutinitas pelatihan dari suatu operasi. Metrik deret waktu disimpan di Vertex AI TensorBoard. Eksperimen Vertex AI menyimpan referensi ke resource Vertex TensorBoard.
-
token
- Token dalam model bahasa adalah unit atom yang dilatih dan diprediksi oleh model, yaitu kata, morfem, dan karakter. Di domain di luar model bahasa, token dapat mewakili jenis unit atom lainnya. Misalnya, dalam computer vision, token mungkin merupakan subset dari gambar. Untuk mengetahui informasi selengkapnya, lihat Mencantumkan dan menghitung token.
-
jalur
- "Jalur" mengacu pada urutan langkah atau tindakan yang dilakukan oleh agen atau model. Model ini sering digunakan dalam evaluasi model generatif, tempat kemampuan model untuk menghasilkan teks, kode, atau konten lainnya dinilai. Ada beberapa jenis metrik lintasan yang dapat digunakan untuk mengevaluasi model generatif, termasuk pencocokan persis lintasan, pencocokan dalam urutan lintasan, pencocokan urutan apa pun lintasan, dan presisi lintasan. Metrik ini mengukur kesamaan antara output model dan sekumpulan output referensi buatan manusia.
-
Transformer
- "Transformer" adalah arsitektur jaringan saraf yang mendasari sebagian besar model generatif canggih. Model ini digunakan dalam berbagai aplikasi model bahasa, termasuk terjemahan. Transformer terdiri dari encoder dan decoder; encoder mengonversi teks input menjadi representasi perantara, dan decoder mengonversinya menjadi output yang berguna. Model ini menggunakan mekanisme self-attention untuk mengumpulkan konteks dari kata-kata di sekitar kata yang sedang diproses. Meskipun melatih Transformer memerlukan resource yang signifikan, menyesuaikan Transformer terlatih untuk aplikasi tertentu akan lebih efisien.
-
Transformer Reinforcement Learning
- Transformer Reinforcement Learning (TRL) mengacu pada penerapan teknik reinforcement learning (RL) untuk melatih model berbasis transformer untuk tugas generatif. Pendekatan ini mengatasi keterbatasan model generatif tradisional, yang sering dilatih pada prediksi token berikutnya tanpa pengoptimalan eksplisit untuk kualitas yang diinginkan seperti koherensi, keamanan, dan sensibilitas. TRL secara langsung mengoptimalkan model bahasa pada tujuan yang kompleks menggunakan RL, yang sering kali menggabungkan masukan manusia (RLHF) untuk memandu proses pembelajaran. Contohnya termasuk meningkatkan kualitas model untuk menghasilkan konten yang tidak terlalu beracun menggunakan model reward dan menggunakan TRL untuk meningkatkan kualitas Gemma, model generatif. Untuk informasi selengkapnya, lihat DLC Hugging Face: Menyesuaikan Gemma dengan Transformer Reinforcement Learning (TRL) di Vertex AI.
-
true positive
- "Positif benar" mengacu pada prediksi saat model mengidentifikasi kelas positif dengan benar. Misalnya, jika model dilatih untuk mengidentifikasi pelanggan yang akan membeli jaket, positif benar akan memprediksi dengan benar bahwa pelanggan akan melakukan pembelian tersebut.
-
validasi
- Validasi memeriksa kualitas prediksi model terhadap set validasi. Hal ini mencakup penentuan metrik untuk mengukur kualitas, kecepatan, kepatuhan terhadap petunjuk, dan keamanan konten yang dihasilkan. Validasi sering kali menggunakan data berlabel (perintah input dan output yang diharapkan) untuk membandingkan prediksi model dengan kebenaran dasar. Metrik seperti skor F1 (untuk klasifikasi) dan skor ROUGE-L (untuk ringkasan) dapat digunakan. Proses ini juga mencakup pengujian kasus ekstrem dan skenario yang tidak biasa untuk memastikan keandalan. Untuk model yang di-deploy, pemantauan dan pengambilan titik data umum dan kasus ekstrem secara berkelanjutan akan membantu meningkatkan upaya validasi di masa mendatang.
-
vector
- Vektor mengacu pada representasi numerik teks, gambar, atau video yang menangkap hubungan antar-input. Model machine learning cocok untuk membuat penyematan dengan mengidentifikasi pola dalam set data besar. Aplikasi dapat menggunakan penyematan untuk memproses dan menghasilkan bahasa, mengenali makna kompleks dan hubungan semantik yang spesifik untuk konten. Untuk informasi selengkapnya, lihat Ringkasan Embeddings API.
-
Eksperimen Vertex AI
- Vertex AI Experiments memungkinkan pengguna melacak hal berikut: 1. Langkah-langkah operasi eksperimen (misalnya, prapemrosesan dan pelatihan). 2. Input (misalnya, algoritma, parameter, dan set data). 3. Output dari langkah-langkah tersebut (misalnya, model, checkpoint, dan metrik).
-
Vertex AI Model Registry
- Vertex AI Model Registry adalah repositori pusat tempat Anda dapat mengelola siklus proses model ML. Dari Vertex AI Model Registry, Anda memiliki ringkasan model sehingga dapat mengatur, melacak, dan melatih versi baru dengan lebih baik. Jika memiliki versi model yang ingin di-deploy, Anda dapat menetapkannya ke endpoint langsung dari registry, atau dengan menggunakan alias, Anda dapat men-deploy model ke endpoint. Untuk mengetahui informasi selengkapnya, lihat Pengantar Vertex AI Model Registry.
-
segmen video
- Segmen video diidentifikasi dengan selisih waktu awal dan akhir video.
-
virtual private cloud (VPC)
- Virtual private cloud adalah kumpulan resource komputasi bersama yang dapat dikonfigurasi dan sesuai permintaan, yang dialokasikan di lingkungan cloud publik serta menyediakan tingkat isolasi antara organisasi yang berbeda menggunakan resource tersebut.
-
embedding kata
- Word embedding adalah cara untuk merepresentasikan kata sebagai vektor padat dari nilai floating point. Hal ini memungkinkan kata-kata yang serupa memiliki encoding yang serupa. Penyematan kata sering digunakan dalam AI generatif untuk menangkap hubungan antarkata dan menghasilkan teks atau kode baru, tanpa sumber. Dalam AI generatif, penyematan kata dapat digunakan untuk melatih model yang dapat menghasilkan teks atau kode baru. Dengan memahami hubungan antarkata, model AI generatif dapat membuat konten baru yang koheren dan relevan.
-
perintah zero-shot (perintah langsung)
- Dalam AI generatif, perintah zero-shot adalah perintah yang memungkinkan model bahasa besar (LLM) melakukan tugas tanpa pelatihan atau contoh tambahan. Hal ini berbeda dengan metode seperti perintah few-shot, yang memberi model contoh input dan output. Perintah zero-shot hanya mengandalkan pengetahuan model yang sudah ada untuk menghasilkan respons. Untuk informasi selengkapnya, lihat perintah zero-shot.