Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Tentang penyesuaian yang diawasi untuk model LLM Terjemahan
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Fine-tuning yang diawasi adalah opsi yang baik jika Anda memiliki tugas terjemahan dengan
data teks berlabel yang tersedia. SFT sangat efektif untuk aplikasi khusus domain yang terjemahannya sangat berbeda dengan data umum yang sebelumnya digunakan untuk melatih model besar.
Fine-tuning yang diawasi mengadaptasi perilaku model dengan set data berlabel. Proses ini
menyesuaikan bobot model untuk meminimalkan perbedaan antara prediksi dan label sebenarnya.
Model yang didukung
Model LLM Penerjemahan berikut mendukung penyesuaian yang diawasi:
translation-llm-002 (Dalam Pratinjau Publik, hanya mendukung teks)
Batasan
Token input dan output maksimum:
Penayangan: 1.000 (~4.000 karakter)
Ukuran set data validasi: 1024 contoh
Ukuran file set data pelatihan: Hingga 1 GB untuk JSONL
Panjang contoh pelatihan: 1.000 (~4.000 karakter)
Ukuran adaptor:
Translation LLM V2: Nilai yang didukung hanya 4. Menggunakan nilai lain (misalnya, 1 atau 8) akan menyebabkan kegagalan.
Kasus penggunaan untuk menggunakan fine-tuning yang diawasi
Model terjemahan umum terlatih berfungsi dengan baik jika teks yang akan diterjemahkan didasarkan pada struktur teks umum yang dipelajari model. Jika Anda ingin model mempelajari sesuatu yang khusus atau spesifik per domain yang menyimpang dari terjemahan umum, sebaiknya pertimbangkan untuk menyesuaikan model tersebut. Misalnya, Anda dapat menggunakan penyesuaian model untuk mengajarkan model
hal berikut ini:
Konten spesifik dari domain industri dengan jargon atau gaya
Struktur atau format spesifik untuk menghasilkan output.
Perilaku spesifik seperti kapan harus memberikan output yang singkat atau panjang.
Output yang disesuaikan dan spesifik untuk jenis input tertentu.
Mengonfigurasi region tugas penyesuaian
Data pengguna, seperti set data yang diubah dan model yang di-tuning, disimpan di region tugas tuning. Satu-satunya wilayah yang didukung adalah us-central1.
Jika menggunakan Vertex AI SDK, Anda dapat menentukan region saat
inisialisasi. Contoh:
Jika Anda membuat tugas penyesuaian terawasi dengan mengirim permintaan POST menggunakan
metode
tuningJobs.create, Anda akan menggunakan URL untuk menentukan region tempat tugas penyesuaian dijalankan. Misalnya, di URL berikut, Anda menentukan region dengan
mengganti kedua instance TUNING_JOB_REGION dengan region
tempat tugas berjalan.
Jika menggunakan konsolGoogle Cloud , Anda dapat memilih nama region di kolom drop-down Region di halaman Model details. Ini adalah halaman yang sama tempat Anda memilih model dasar dan nama model yang disesuaikan.
Kuota
Kuota diterapkan pada jumlah tugas penyetelan serentak. Setiap project dilengkapi dengan kuota default untuk menjalankan setidaknya satu tugas penyesuaian. Ini adalah kuota global,
yang dibagikan di semua region yang tersedia dan model yang didukung. Jika ingin menjalankan lebih banyak tugas secara bersamaan, Anda harus meminta kuota tambahan untuk Global concurrent tuning jobs.
Harga
Fine-tuning yang diawasi untuk translation-llm-002 berada dalam Pratinjau. Selama penyesuaian masih dalam Pratinjau,
tidak ada biaya untuk menyesuaikan model atau menggunakannya untuk inferensi.
Token pelatihan dihitung berdasarkan jumlah total token dalam set data pelatihan Anda, dikalikan dengan jumlah epoch Anda.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-09-04 UTC."],[],[],null,["# About supervised fine-tuning for Translation LLM models\n\nSupervised fine-tuning is a good option when you have a translation task with\navailable labeled text data. It's particularly effective for domain-specific\napplications where the translation significantly differs from the general data\nthe large model was originally trained on.\n\nSupervised fine-tuning adapts model behavior with a labeled dataset. This process\nadjusts the model's weights to minimize the difference between its predictions\nand the actual labels.\n\nSupported models\n----------------\n\nThe following Translation LLM models support supervised tuning:\n\n- `translation-llm-002` (In Public Preview, supports text only)\n\nLimitations\n-----------\n\n- Maximum input and output tokens:\n - Serving: 1,000 (\\~4000 characters)\n- Validation dataset size: 1024 examples\n- Training dataset file size: Up to 1GB for JSONL\n- Training example length: 1,000 (\\~4000 characters)\n- Adapter size:\n - `Translation LLM V2`: Supported value is only 4. Using any other values (e.g., 1 or 8) will result in failure.\n\nUse cases for using supervised fine-tuning\n------------------------------------------\n\nGeneral pretrained translation model works well when the text to be translated is based on\ngeneral commonplace text structures that the model learned from. If you want a\nmodel to learn something niche or domain-specific that deviates from general\ntranslation, then you might want to consider\ntuning that model. For example, you can use model tuning to teach the model the\nfollowing:\n\n- Specific content of an industry domain with jargon or style\n- Specific structures or formats for generating output.\n- Specific behaviors such as when to provide a terse or verbose output.\n- Specific customized outputs for specific types of inputs.\n\nConfigure a tuning job region\n-----------------------------\n\nUser data, such as the transformed dataset and the tuned model, is stored in the\ntuning job region. The only supported region is `us-central1`.\n\n- If you use the Vertex AI SDK, you can specify the region at\n initialization. For example:\n\n import https://cloud.google.com/python/docs/reference/vertexai/latest/\n https://cloud.google.com/python/docs/reference/vertexai/latest/.init(project='myproject', location='us-central1')\n\n- If you create a supervised fine-tuning job by sending a POST request using\n the\n [`tuningJobs.create`](/vertex-ai/docs/reference/rest/v1/projects.locations.tuningJobs/create)\n method, then you use the URL to specify the region where the tuning job\n runs. For example, in the following URL, you specify a region by\n replacing both instances of \u003cvar translate=\"no\"\u003e\u003ccode translate=\"no\" dir=\"ltr\"\u003eTUNING_JOB_REGION\u003c/code\u003e\u003c/var\u003e with the region\n where the job runs.\n\n https://\u003cvar translate=\"no\"\u003eTUNING_JOB_REGION\u003c/var\u003e-aiplatform.googleapis.com/v1/projects/\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e/locations/\u003cvar translate=\"no\"\u003eTUNING_JOB_REGION\u003c/var\u003e/tuningJobs\n\n- If you use the [Google Cloud console](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning#create_a_text_model_supervised_tuning_job),\n you can select the region name in the **Region**\n drop down field on the **Model details** page. This is the same page\n where you select the base model and a tuned model name.\n\nQuota\n-----\n\nQuota is enforced on the number of concurrent tuning jobs. Every project comes\nwith a default quota to run at least one tuning job. This is a global quota,\nshared across all available regions and supported models. If you want to run more jobs concurrently, you need to [request additional quota](/docs/quota_detail/view_manage#requesting_higher_quota) for `Global concurrent tuning jobs`.\n\nPricing\n-------\n\nSupervised fine-tuning for `translation-llm-002` is in [Preview](/products#product-launch-stages). While tuning is in Preview,\nthere is no charge to tune a model or to use it for inference.\n\nTraining tokens are calculated by the total number of tokens in your training dataset,\nmultiplied by your number of epochs.\n\nWhat's next\n-----------\n\n- Prepare a [supervised fine-tuning dataset](/vertex-ai/generative-ai/docs/models/translation-supervised-tuning-prepare)."]]