Tentang penyesuaian yang diawasi untuk model LLM Terjemahan

Fine-tuning yang diawasi adalah opsi yang baik jika Anda memiliki tugas terjemahan dengan data teks berlabel yang tersedia. SFT sangat efektif untuk aplikasi khusus domain yang terjemahannya sangat berbeda dengan data umum yang sebelumnya digunakan untuk melatih model besar.

Fine-tuning yang diawasi mengadaptasi perilaku model dengan set data berlabel. Proses ini menyesuaikan bobot model untuk meminimalkan perbedaan antara prediksi dan label sebenarnya.

Model yang didukung

Model LLM Penerjemahan berikut mendukung penyesuaian yang diawasi:

  • translation-llm-002 (Dalam Pratinjau Publik, hanya mendukung teks)

Batasan

  • Token input dan output maksimum:
    • Penayangan: 1.000 (~4.000 karakter)
  • Ukuran set data validasi: 1024 contoh
  • Ukuran file set data pelatihan: Hingga 1 GB untuk JSONL
  • Panjang contoh pelatihan: 1.000 (~4.000 karakter)
  • Ukuran adaptor:
    • Translation LLM V2: Nilai yang didukung hanya 4. Menggunakan nilai lain (misalnya, 1 atau 8) akan menyebabkan kegagalan.

Kasus penggunaan untuk menggunakan fine-tuning yang diawasi

Model terjemahan umum terlatih berfungsi dengan baik jika teks yang akan diterjemahkan didasarkan pada struktur teks umum yang dipelajari model. Jika Anda ingin model mempelajari sesuatu yang khusus atau spesifik per domain yang menyimpang dari terjemahan umum, sebaiknya pertimbangkan untuk menyesuaikan model tersebut. Misalnya, Anda dapat menggunakan penyesuaian model untuk mengajarkan model hal berikut ini:

  • Konten spesifik dari domain industri dengan jargon atau gaya
  • Struktur atau format spesifik untuk menghasilkan output.
  • Perilaku spesifik seperti kapan harus memberikan output yang singkat atau panjang.
  • Output yang disesuaikan dan spesifik untuk jenis input tertentu.

Mengonfigurasi region tugas penyesuaian

Data pengguna, seperti set data yang diubah dan model yang di-tuning, disimpan di region tugas tuning. Satu-satunya wilayah yang didukung adalah us-central1.

  • Jika menggunakan Vertex AI SDK, Anda dapat menentukan region saat inisialisasi. Contoh:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Jika Anda membuat tugas penyesuaian terawasi dengan mengirim permintaan POST menggunakan metode tuningJobs.create, Anda akan menggunakan URL untuk menentukan region tempat tugas penyesuaian dijalankan. Misalnya, di URL berikut, Anda menentukan region dengan mengganti kedua instance TUNING_JOB_REGION dengan region tempat tugas berjalan.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Jika menggunakan konsolGoogle Cloud , Anda dapat memilih nama region di kolom drop-down Region di halaman Model details. Ini adalah halaman yang sama tempat Anda memilih model dasar dan nama model yang disesuaikan.

Kuota

Kuota diterapkan pada jumlah tugas penyetelan serentak. Setiap project dilengkapi dengan kuota default untuk menjalankan setidaknya satu tugas penyesuaian. Ini adalah kuota global, yang dibagikan di semua region yang tersedia dan model yang didukung. Jika ingin menjalankan lebih banyak tugas secara bersamaan, Anda harus meminta kuota tambahan untuk Global concurrent tuning jobs.

Harga

Fine-tuning yang diawasi untuk translation-llm-002 berada dalam Pratinjau. Selama penyesuaian masih dalam Pratinjau, tidak ada biaya untuk menyesuaikan model atau menggunakannya untuk inferensi.

Token pelatihan dihitung berdasarkan jumlah total token dalam set data pelatihan Anda, dikalikan dengan jumlah epoch Anda.

Langkah berikutnya