Ringkasan penyesuaian model PaLM

Menyesuaikan model dasar dapat meningkatkan performa. Model dasar dilatih untuk tujuan umum dan terkadang tidak melakukan tugas seperti yang Anda inginkan. Hal ini mungkin karena tugas yang Anda inginkan untuk dijalankan model adalah tugas khusus yang sulit untuk diajarkan model dengan hanya menggunakan desain prompt. Dalam hal ini, Anda dapat menggunakan penyesuaian model untuk meningkatkan performa model untuk tugas tertentu. Penyesuaian model juga dapat membantunya mematuhi persyaratan output tertentu saat instruksi tidak memadai. Halaman ini menyediakan ringkasan tentang penyesuaian model, menjelaskan opsi penyesuaian yang tersedia di Vertex AI, dan membantu Anda menentukan kapan setiap opsi penyesuaian harus digunakan.

Ringkasan penyesuaian model

Penyesuaian model bekerja dengan menyediakan model dengan set data pelatihan yang berisi banyak contoh tugas unik. Untuk tugas yang unik atau khusus, Anda dapat memperoleh peningkatan performa model yang signifikan dengan menyesuaikan model pada sejumlah kecil contoh. Setelah Anda men-tuning model, lebih sedikit contoh yang diperlukan dalam perintahnya.

Vertex AI mendukung metode berikut untuk menyesuaikan model dasar:

  • Tuning yang diawasi - Penyesuaian model teks yang diawasi adalah opsi yang tepat jika output model Anda tidak rumit dan relatif mudah ditentukan. Penyesuaian yang diawasi direkomendasikan untuk klasifikasi, analisis sentimen, ekstraksi entity, perangkuman konten yang tidak kompleks, dan penulisan kueri khusus domain. Untuk model kode, supervised tuning adalah satu-satunya opsi.

  • Pembelajaran penguatan dari penyesuaian masukan manusia (RLHF) - Penyesuaian RLHF adalah opsi yang tepat jika output model Anda kompleks dan tidak mudah dicapai dengan penyesuaian yang diawasi. Penyesuaian RLHF direkomendasikan untuk menjawab pertanyaan, meringkas konten yang kompleks, dan pembuatan konten, seperti penulisan ulang. Penyesuaian RLHF tidak didukung oleh model kode.

  • Distilasi model - Distilasi adalah opsi yang bagus jika Anda memiliki model besar yang ingin diperkecil tanpa menurunkan kemampuannya untuk melakukan apa yang Anda inginkan. Proses penyuluhan model akan membuat model baru yang terlatih dengan biaya lebih murah dan memiliki latensi lebih rendah dibandingkan model aslinya.

Kuota

Setiap project Google Cloud memerlukan kuota yang cukup untuk menjalankan satu tugas tuning, dan satu tugas penyesuaian menggunakan 8 GPU. Jika project tidak memiliki cukup kuota untuk satu tugas tuning, atau jika ingin menjalankan beberapa tugas tuning serentak di project, Anda harus meminta kuota tambahan.

Tabel berikut menunjukkan jenis dan jumlah kuota yang perlu diminta, bergantung pada region tempat Anda menentukan penyesuaian yang akan dilakukan:

Region Kuota resource Jumlah per tugas serentak

us-central1

Restricted image training Nvidia A100 80GB GPUs per region

8

Restricted image training CPUs for A2 CPU types per region

96

europe-west4

Restricted image training TPU V3 pod cores per region

64

Harga

Saat menyesuaikan atau menyaring model dasar, Anda membayar biaya untuk menjalankan pipeline tuning atau distilasi. Saat men-deploy model dasar yang disesuaikan atau disaring ke endpoint Vertex AI, Anda tidak dikenai biaya untuk hosting. Untuk prediksi inferensi, Anda membayar harga yang sama dengan yang Anda bayar ketika menyajikan prediksi menggunakan model dasar yang tidak disesuaikan (untuk penyesuaian) atau model siswa (untuk distilasi). Untuk mempelajari model dasar mana yang dapat disesuaikan dan disaring, lihat Model dasar. Untuk mengetahui detail harga, lihat Harga untuk AI Generatif di Vertex AI.

Langkah selanjutnya