Tentang penyesuaian yang diawasi untuk model Gemini

Penyesuaian yang diawasi adalah opsi yang baik jika Anda memiliki tugas yang ditentukan dengan baik dengan data berlabel yang tersedia. Hal ini sangat efektif untuk aplikasi khusus domain dengan bahasa atau konten yang sangat berbeda dari data yang digunakan untuk melatih model besar. Anda dapat menyesuaikan jenis data teks, gambar, audio, dan dokumen.

Penyesuaian yang diawasi menyesuaikan perilaku model dengan set data berlabel. Proses ini menyesuaikan bobot model untuk meminimalkan perbedaan antara prediksinya dan label sebenarnya. Misalnya, model ini dapat meningkatkan performa model untuk jenis tugas berikut:

  • Klasifikasi
  • Perangkuman
  • Penjawaban pertanyaan ekstraktif
  • Chat

Untuk mempelajari lebih lanjut, lihat Kapan harus menggunakan penyesuaian terpantau untuk Gemini.

Model yang didukung

Model Gemini berikut mendukung penyesuaian yang diawasi:

  • gemini-1.5-pro-002 (Di GA, mendukung teks, gambar, audio, dan dokumen)
  • gemini-1.5-flash-002(Di GA, mendukung teks, gambar, audio, dan dokumen)
  • gemini-1.0-pro-002 (Dalam pratinjau, hanya mendukung penyesuaian teks)

Batasan

  • Token input dan output maksimum:
    • Contoh pelatihan: 32.000
    • Inferensi: 32.000
  • Ukuran set data validasi: 256 contoh
  • Ukuran file set data pelatihan: Hingga 1 GB untuk JSONL
  • Ukuran adaptor:
    • Gemini 1.5 Pro: Nilai yang didukung adalah 1 dan 4 (defaultnya adalah 4). Menggunakan nilai yang lebih tinggi (mis., 8 atau 16) akan mengakibatkan kegagalan.
    • Gemini 1.5 Flash: Nilai yang didukung adalah 1, 4, 8, dan 16 (defaultnya adalah 8).

Kasus penggunaan untuk menggunakan penyesuaian yang diawasi

Model dasar berfungsi dengan baik jika output atau tugas yang diharapkan dapat ditentukan dengan jelas dan ringkas dalam perintah, dan perintah secara konsisten menghasilkan output yang diharapkan. Jika Anda ingin model mempelajari sesuatu yang khusus atau spesifik yang menyimpang dari pola umum, sebaiknya pertimbangkan untuk menyesuaikan model tersebut. Misalnya, Anda dapat menggunakan penyesuaian model untuk mengajarkan model hal berikut ini:

  • Struktur atau format spesifik untuk menghasilkan output.
  • Perilaku spesifik seperti kapan harus memberikan output yang singkat atau panjang.
  • Output yang disesuaikan dan spesifik untuk jenis input tertentu.

Contoh berikut adalah kasus penggunaan yang sulit direkam hanya dengan petunjuk perintah:

  • Klasifikasi: Respons yang diharapkan adalah kata atau frasa tertentu.

    Menyesuaikan model dapat membantu mencegah model menghasilkan respons panjang.

  • Ringkasan: Ringkasan mengikuti format tertentu. Misalnya, Anda mungkin perlu menghapus informasi identitas pribadi (PII) dalam ringkasan chat.

    Pemformatan berupa penggantian nama pembicara dengan #Person1 dan #Person2 sulit dijelaskan dan model dasar mungkin tidak secara alami menghasilkan respons tersebut.

  • Question answering ekstraksi: Pertanyaannya tentang konteks dan jawabannya adalah substring konteks tersebut

    Respons "Glasial Maksimum Terakhir" adalah frasa spesifik dari konteks.

  • Chat: Anda perlu menyesuaikan respons model untuk mengikuti persona, peran, atau karakter.

Anda juga dapat menyesuaikan model dalam situasi berikut:

  • Perintah tidak memberikan hasil yang diharapkan secara konsisten.
  • Tugas terlalu rumit untuk ditentukan dalam perintah. Misalnya, Anda ingin model melakukan clone perilaku untuk perilaku yang sulit diuraikan dalam perintah.
  • Anda memiliki intuisi kompleks tentang tugas yang mudah diajukan, tetapi sulit diformalkan dalam sebuah perintah.
  • Anda ingin mengurangi panjang konteks dengan menghapus contoh few-shot.

Mengonfigurasi region tugas penyesuaian

Data pengguna, seperti set data yang ditransformasi dan model yang dioptimalkan, disimpan di region tugas penyesuaian. Selama penyesuaian, komputasi dapat di-offload ke region US atau EU lain untuk akselerator yang tersedia. Pemindahan ini bersifat transparan bagi pengguna.

  • Jika menggunakan Vertex AI SDK, Anda dapat menentukan region saat inisialisasi. Contoh:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Jika Anda membuat tugas penyesuaian terpantau dengan mengirimkan permintaan POST menggunakan metode tuningJobs.create, Anda akan menggunakan URL untuk menentukan region tempat tugas penyesuaian berjalan. Misalnya, di URL berikut, Anda menentukan region dengan mengganti kedua instance TUNING_JOB_REGION dengan region tempat tugas dijalankan.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Jika menggunakan konsol Google Cloud, Anda dapat memilih nama region di kolom drop-down Region di halaman Detail model. Ini adalah halaman yang sama tempat Anda memilih model dasar dan nama model yang disesuaikan.

Kuota

Kuota diterapkan pada jumlah tugas penyesuaian serentak. Setiap project dilengkapi dengan kuota default untuk menjalankan setidaknya satu tugas penyesuaian. Ini adalah kuota global, yang dibagikan di semua region yang tersedia dan model yang didukung. Jika ingin menjalankan lebih banyak tugas secara serentak, Anda harus meminta kuota tambahan untuk Global concurrent tuning jobs.

Harga

Penyesuaian yang diawasi untuk gemini-1.0-pro-002 sedang dalam Pratinjau. Saat penyesuaian dalam Pratinjau, tidak ada biaya untuk menyesuaikan model.

Harga untuk menyesuaikan Gemini 1.5 Flash dan Gemini 1.5 Pro dapat ditemukan di sini: Harga Vertex AI.

Token pelatihan dihitung dengan total jumlah token dalam set data pelatihan, dikalikan dengan jumlah epoch. Untuk semua model, setelah penyesuaian, biaya inferensi untuk model yang disesuaikan masih berlaku. Harga inferensi sama untuk setiap versi Gemini yang stabil. Untuk mengetahui informasi selengkapnya, lihat Harga Vertex AI dan Versi model stabil Gemini yang tersedia.

Langkah selanjutnya