Dokumen ini menjelaskan cara menyesuaikan model Gemini menggunakan penyesuaian terbaik yang diawasi.
Sebelum memulai
Sebelum memulai, Anda harus menyiapkan set data penyesuaian terperinci yang diawasi. Bergantung pada kasus penggunaan Anda, ada persyaratan yang berbeda.
- Menyiapkan set data teks untuk penyesuaian: Penyesuaian teks
- Menyiapkan set data gambar untuk penyesuaian: Penyesuaian gambar
- Menyiapkan set data dokumen untuk penyesuaian: Penyesuaian dokumen
- Menyiapkan set data audio untuk penyesuaian: Penyesuaian audio
- Menyiapkan set data video untuk penyesuaian: Penyesuaian video
Model yang didukung
Model Gemini berikut mendukung penyesuaian yang diawasi:
Membuat tugas penyesuaian
Anda dapat membuat tugas penyesuaian terawasi menggunakan konsol Google Cloud , Google Gen AI SDK, Vertex AI SDK untuk Python, REST API, atau Colab Enterprise:
Konsol
Untuk menyesuaikan model teks dengan penyesuaian lanjutan yang diawasi menggunakan konsol Google Cloud , lakukan langkah-langkah berikut:
Di bagian Vertex AI pada konsol Google Cloud , buka halaman Vertex AI Studio.
Klik Create tuned model.
Di bagian Detail model, konfigurasi berikut:
- Di kolom Tuned model name, masukkan nama untuk model baru yang disesuaikan, hingga 128 karakter.
- Di kolom Model dasar, pilih
gemini-2.5-flash
. - Di kolom drop-down Region, Pilih region tempat tugas penyesuaian pipeline berjalan dan tempat model yang disesuaikan di-deploy.
Di bagian Setelan penyesuaian, konfigurasikan hal berikut:
- Di kolom Number of epochs, masukkan jumlah langkah yang akan dijalankan untuk penyesuaian model.
- Di kolom Ukuran Adaptor, masukkan ukuran adaptor yang akan digunakan untuk penyesuaian model.
- Di kolom Pengganda kecepatan pembelajaran, masukkan ukuran langkah di setiap iterasi. Nilai default adalah 1. .
Opsional: Untuk menonaktifkan titik pemeriksaan perantara dan hanya menggunakan titik pemeriksaan terbaru, klik tombol Ekspor hanya titik pemeriksaan terakhir.
Klik Lanjutkan.
Halaman Tuning dataset akan terbuka.
Untuk mengupload file set data, pilih salah satu opsi berikut:
- Jika Anda belum mengupload set data, pilih tombol pilihan untuk Upload file ke Cloud Storage.
- Di kolom Select JSONL file, klik Browse, lalu pilih file set data Anda.
- Di kolom Lokasi set data, klik Telusuri, lalu pilih bucket Cloud Storage tempat Anda ingin menyimpan file set data.
- Jika file set data Anda sudah ada di bucket Cloud Storage, pilih tombol pilihan untuk File yang ada di Cloud Storage.
- Di kolom Cloud Storage file path, klik Browse, lalu pilih bucket Cloud Storage tempat file set data Anda berada.
(Opsional) Untuk mendapatkan metrik validasi selama pelatihan, klik tombol Aktifkan validasi model.
- Di file Validation dataset, masukkan jalur Cloud Storage set data validasi Anda.
Klik Mulai Penyesuaian.
Model baru Anda akan muncul di bagian Gemini Pro tuned models di halaman Tune and Distill. Setelah penyetelan model selesai, Status akan menampilkan Berhasil.
Google Gen AI SDK
Vertex AI SDK untuk Python
REST
Untuk membuat tugas penyesuaian model, kirim permintaan POST menggunakan metode
tuningJobs.create
. Beberapa parameter tidak didukung oleh semua model. Pastikan Anda hanya menyertakan parameter yang berlaku untuk model yang sedang disesuaikan.
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_ID: .
- TUNING_JOB_REGION: Region tempat tugas penyetelan berjalan. Ini juga merupakan region default tempat model yang disesuaikan diupload.
- BASE_MODEL: Nama model dasar yang akan disesuaikan.
- TRAINING_DATASET_URI: Cloud Storage URI set data pelatihan Anda. Set data harus diformat sebagai file JSONL. Untuk hasil terbaik, berikan minimal 100 hingga 500 contoh. Untuk mengetahui informasi selengkapnya, lihat Tentang set data penyesuaian yang diawasi .
- VALIDATION_DATASET_URIOpsional: Cloud Storage URI dari file set data validasi Anda.
- EPOCH_COUNTOpsional: Jumlah lintasan lengkap yang dilakukan model pada seluruh set data pelatihan selama pelatihan. Biarkan tidak disetel untuk menggunakan nilai yang direkomendasikan dan telah diisi otomatis.
- ADAPTER_SIZEOpsional: Ukuran adaptor yang akan digunakan untuk tugas penyesuaian. Ukuran adaptor memengaruhi jumlah parameter yang dapat dilatih untuk tugas penyesuaian. Ukuran adaptor yang lebih besar menunjukkan bahwa model dapat mempelajari tugas yang lebih kompleks, tetapi memerlukan set data pelatihan yang lebih besar dan waktu pelatihan yang lebih lama.
- LEARNING_RATE_MULTIPLIER: Opsional: Pengganda untuk diterapkan ke kecepatan pembelajaran yang direkomendasikan. Biarkan tidak disetel untuk menggunakan nilai yang direkomendasikan.
- EXPORT_LAST_CHECKPOINT_ONLYOpsional: Setel ke
true
untuk hanya menggunakan checkpoint terbaru. - TUNED_MODEL_DISPLAYNAMEOpsional: Nama tampilan untuk model yang disesuaikan. Jika tidak disetel, nama acak akan dibuat.
- KMS_KEY_NAMEOpsional: ID resource Cloud KMS dari kunci enkripsi yang dikelola pelanggan yang digunakan untuk melindungi resource. Kuncinya memiliki format:
projects/my-project/locations/my-region/keyRings/my-kr/cryptoKeys/my-key
. Kunci harus berada di region yang sama dengan tempat resource komputasi dibuat. Untuk informasi selengkapnya, lihat Kunci enkripsi yang dikelola pelanggan (CMEK). - SERVICE_ACCOUNTOpsional: Akun layanan yang digunakan untuk menjalankan workload tuningJob. Jika tidak ditentukan, Agen Layanan Penyesuaian Aman Vertex AI di project akan digunakan. Lihat Menyesuaikan Agen Layanan. Jika Anda berencana menggunakan Akun Layanan yang dikelola pelanggan, Anda harus memberikan peran
roles/aiplatform.tuningServiceAgent
ke akun layanan tersebut. Berikan juga peran Tuning Service Agentroles/iam.serviceAccountTokenCreator
ke Akun Layanan yang dikelola pelanggan.
Metode HTTP dan URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Isi JSON permintaan:
{ "baseModel": "BASE_MODEL", "supervisedTuningSpec" : { "trainingDatasetUri": "TRAINING_DATASET_URI", "validationDatasetUri": "VALIDATION_DATASET_URI", "hyperParameters": { "epochCount": "EPOCH_COUNT", "adapterSize": "ADAPTER_SIZE", "learningRateMultiplier": "LEARNING_RATE_MULTIPLIER" }, "export_last_checkpoint_only": EXPORT_LAST_CHECKPOINT_ONLY, }, "tunedModelDisplayName": "TUNED_MODEL_DISPLAYNAME", "encryptionSpec": { "kmsKeyName": "KMS_KEY_NAME" }, "serviceAccount": "SERVICE_ACCOUNT" }
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"
PowerShell
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content
Anda akan melihat respons JSON yang mirip seperti berikut:
Contoh perintah curl
PROJECT_ID=myproject
LOCATION=global
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
"https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/tuningJobs" \
-d \
$'{
"baseModel": "gemini-2.5-flash",
"supervisedTuningSpec" : {
"training_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_train_data.jsonl",
"validation_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/gemini/text/sft_validation_data.jsonl"
},
"tunedModelDisplayName": "tuned_gemini"
}'
Colab Enterprise
Anda dapat membuat tugas penyesuaian model di Vertex AI menggunakan panel samping di Colab Enterprise. Panel samping menambahkan cuplikan kode yang relevan ke notebook Anda. Kemudian, Anda mengubah cuplikan kode dan menjalankannya untuk membuat tugas penyetelan. Untuk mempelajari lebih lanjut cara menggunakan panel samping dengan tugas penyesuaian Vertex AI, lihat Berinteraksi dengan Vertex AI untuk menyesuaikan model.
-
Di konsol Google Cloud , buka halaman Notebook saya Colab Enterprise.
-
Di menu Region, pilih region yang berisi notebook Anda.
-
Klik notebook yang ingin Anda buka. Jika Anda belum membuat notebook, buat notebook terlebih dahulu.
-
Di sebelah kanan notebook Anda, di panel samping, klik tombol
Penyetelan.Panel samping akan meluaskan tab Penyesuaian.
-
Klik tombol Tune a Gemini model.
Colab Enterprise menambahkan sel kode ke notebook Anda untuk menyesuaikan model Gemini.
-
Di notebook, temukan sel kode yang menyimpan nilai parameter. Anda akan menggunakan parameter ini untuk berinteraksi dengan Vertex AI.
-
Perbarui nilai untuk parameter berikut:
-
PROJECT_ID
: ID project tempat notebook Anda berada. -
REGION
: Region tempat notebook Anda berada. -
TUNED_MODEL_DISPLAY_NAME
: Nama model yang disesuaikan.
-
-
Di sel kode berikutnya, perbarui parameter penyesuaian model:
-
source_model
: Model Gemini yang ingin Anda gunakan, misalnya,gemini-2.0-flash-001
. -
train_dataset
: URL set data pelatihan Anda. -
validation_dataset
: URL set data validasi Anda. - Sesuaikan parameter lainnya sesuai kebutuhan.
-
-
Jalankan sel kode yang ditambahkan panel samping ke notebook Anda.
-
Setelah sel kode terakhir berjalan, klik tombol
Lihat tugas penyesuaian yang muncul. -
Panel samping menampilkan informasi tentang tugas penyesuaian model Anda.
- Tab Monitor menampilkan metrik penyesuaian saat metrik sudah siap.
- Tab Set data menampilkan ringkasan dan metrik tentang set data Anda setelah set data diproses.
- Tab Details menampilkan informasi tentang tugas penyesuaian Anda, seperti metode penyesuaian dan model dasar (model sumber) yang Anda gunakan.
-
Setelah tugas penyesuaian selesai, Anda dapat langsung membuka halaman tempat Anda dapat menguji model dari tab Detail penyesuaian. Klik Uji.
Konsol Google Cloud akan membuka halaman Text chat Vertex AI, tempat Anda dapat menguji model.
Menyesuaikan hyperparameter
Sebaiknya kirimkan tugas penyesuaian pertama Anda tanpa mengubah hyperparameter. Nilai default adalah nilai yang direkomendasikan berdasarkan hasil tolok ukur kami untuk menghasilkan kualitas output model terbaik.
- Epoch: Jumlah lintasan lengkap yang dilakukan model pada seluruh set data pelatihan selama pelatihan. Vertex AI akan otomatis menyesuaikan nilai default dengan ukuran set data pelatihan Anda. Nilai ini didasarkan pada hasil tolok ukur untuk mengoptimalkan kualitas output model.
- Ukuran adaptor: Ukuran Adaptor yang akan digunakan untuk tugas penyesuaian. Ukuran adaptor memengaruhi jumlah parameter yang dapat dilatih untuk tugas penyesuaian. Ukuran adaptor yang lebih besar menunjukkan bahwa model dapat mempelajari tugas yang lebih kompleks, tetapi memerlukan set data pelatihan yang lebih besar dan waktu pelatihan yang lebih lama.
- Pengganda Kecepatan Pembelajaran: Pengganda yang akan diterapkan ke kecepatan pembelajaran yang direkomendasikan. Anda dapat meningkatkan nilai untuk melakukan konvergensi lebih cepat, atau mengurangi nilai untuk menghindari overfitting.
Untuk mengetahui diskusi tentang praktik terbaik penyempurnaan yang diawasi, lihat postingan blog Supervised Fine Tuning for Gemini: A best practices guide.
Melihat daftar tugas penyesuaian
Anda dapat melihat daftar tugas penyesuaian dalam project saat ini menggunakan
Google Cloud konsol, Google Gen AI SDK, Vertex AI SDK untuk Python, atau dengan
mengirim permintaan GET menggunakan metode tuningJobs
.
Konsol
Untuk melihat tugas penyesuaian di konsol Google Cloud , buka halaman Vertex AI Studio.
Tugas penyesuaian Gemini Anda tercantum dalam tabel di bagian Model yang disesuaikan Gemini Pro.
Google Gen AI SDK
Vertex AI SDK untuk Python
REST
Untuk melihat daftar tugas penyesuaian model, kirim permintaan GET menggunakan metode
tuningJobs.list
.
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_ID: .
- TUNING_JOB_REGION: Region tempat tugas penyetelan berjalan. Ini juga merupakan region default tempat model yang disesuaikan diupload.
Metode HTTP dan URL:
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Jalankan perintah berikut:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"
PowerShell
Jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content
Anda akan menerima respons JSON yang mirip dengan berikut ini.
Mendapatkan detail tugas penyesuaian
Anda bisa mendapatkan detail tugas penyesuaian dalam project saat ini menggunakan
Google Cloud konsol, Google Gen AI SDK, Vertex AI SDK untuk Python, atau dengan
mengirim permintaan GET menggunakan metode tuningJobs
.
Konsol
Untuk melihat detail model yang disesuaikan di konsol Google Cloud , buka halaman Vertex AI Studio.
Di tabel Gemini Pro tuned models, temukan model Anda, lalu klik Details.
Detail model Anda akan ditampilkan.
Google Gen AI SDK
Vertex AI SDK untuk Python
REST
Untuk melihat daftar tugas penyesuaian model, kirim permintaan GET menggunakan metode
tuningJobs.get
dan tentukan TuningJob_ID
.
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_ID: .
- TUNING_JOB_REGION: Region tempat tugas penyetelan berjalan. Ini juga merupakan region default tempat model yang disesuaikan diupload.
- TUNING_JOB_ID: ID tugas penyesuaian.
Metode HTTP dan URL:
GET https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Jalankan perintah berikut:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID"
PowerShell
Jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID" | Select-Object -Expand Content
Anda akan menerima respons JSON yang mirip dengan berikut ini.
Membatalkan tugas penyesuaian
Anda dapat membatalkan tugas penyesuaian dalam project saat ini menggunakan Google Cloud konsol atau
Vertex AI SDK untuk Python, atau dengan mengirim permintaan POST menggunakan metode tuningJobs
.
REST
Untuk melihat daftar tugas penyesuaian model, kirim permintaan GET menggunakan metode
tuningJobs.cancel
dan tentukan TuningJob_ID
.
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_ID: .
- TUNING_JOB_REGION: Region tempat tugas penyetelan berjalan. Ini juga merupakan region default tempat model yang disesuaikan diupload.
- TUNING_JOB_ID: ID tugas penyesuaian.
Metode HTTP dan URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d "" \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel"
PowerShell
Jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel" | Select-Object -Expand Content
Anda akan menerima respons JSON yang mirip dengan berikut ini.
Vertex AI SDK untuk Python
Konsol
Untuk membatalkan tugas penyesuaian di konsol Google Cloud , buka halaman Vertex AI Studio.
Di tabel Gemini Pro tuned models, klik
Manage run.Klik Cancel.
Mengevaluasi model yang di-tuning
Anda dapat berinteraksi dengan endpoint model yang disesuaikan dengan cara yang sama seperti Gemini dasar menggunakan Vertex AI SDK untuk Python atau Google Gen AI SDK, atau dengan mengirim permintaan POST menggunakan metode generateContent
.
Untuk model berbasis penalaran seperti Gemini 2.5 Flash, sebaiknya setel anggaran penalaran ke 0 untuk menonaktifkan penalaran pada tugas yang disesuaikan agar performa dan efisiensi biaya optimal. Selama penyesuaian terawasi, model belajar meniru kebenaran dasar dalam set data penyesuaian, tanpa menyertakan proses berpikir. Oleh karena itu, model yang di-tuning dapat menangani tugas tanpa anggaran penalaran secara efektif.
Contoh berikut meminta model dengan pertanyaan "Mengapa langit berwarna biru?".
Konsol
Untuk melihat detail model yang disesuaikan di konsol Google Cloud , buka halaman Vertex AI Studio.
Di tabel Model yang di-tune Gemini Pro, pilih Uji.
Tindakan ini akan membuka halaman tempat Anda dapat membuat percakapan dengan model yang telah disesuaikan.
Google Gen AI SDK
Vertex AI SDK untuk Python
from vertexai.generative_models import GenerativeModel
sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")
tuned_model = GenerativeModel(sft_tuning_job.tuned_model_endpoint_name)
print(tuned_model.generate_content(content))
REST
Untuk menguji model yang disesuaikan dengan perintah, kirim permintaan POST dan
tentukan TUNED_ENDPOINT_ID
.
Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:
- PROJECT_ID: .
- TUNING_JOB_REGION: Region tempat tugas penyetelan dijalankan. Ini juga merupakan region default tempat model yang disesuaikan diupload.
- ENDPOINT_ID: ID endpoint model yang disesuaikan dari GET API.
- TEMPERATURE:
Suhu digunakan untuk pengambilan sampel selama pembuatan respons, yang terjadi saat
topP
dantopK
diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token. Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang kurang terbuka atau kreatif, sedangkan suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu0
berarti token probabilitas tertinggi selalu dipilih. Dalam hal ini, respons untuk permintaan tertentu sebagian besar deterministik, tetapi sedikit variasi masih dapat dilakukan.Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons pengganti, coba tingkatkan suhunya.
- TOP_P:
Top-P mengubah cara model memilih token untuk output. Token dipilih
dari yang paling mungkin hingga yang paling tidak mungkin sampai jumlah probabilitasnya
sama dengan nilai top-P. Misalnya, jika token A, B, dan C memiliki probabilitas 0,3, 0,2, dan 0,1 dengan nilai top-P adalah
0.5
, model akan memilih A atau B sebagai token berikutnya dengan menggunakan suhu dan mengecualikan C sebagai kandidat.Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak yang lebih banyak.
- TOP_K:
Top-K mengubah cara model memilih token untuk output. Top-K dari
1
berarti token yang dipilih berikutnya adalah yang paling mungkin di antara semua token dalam kosakata model (juga disebut decoding greedy), sedangkan nilai top-K dari3
berarti token berikutnya dipilih di antara tiga token yang paling mungkin menggunakan suhu.Untuk setiap langkah pemilihan token, token top-K dengan probabilitas tertinggi akan diambil sampelnya. Kemudian token akan difilter lebih lanjut berdasarkan top-P dengan token akhir yang dipilih menggunakan pengambilan sampel suhu.
Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak yang lebih banyak.
- MAX_OUTPUT_TOKENS:
Jumlah maksimum token yang dapat dibuat dalam respons. Token terdiri dari sekitar empat karakter. 100 token setara dengan sekitar 60-80 kata.
Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk potensi respons yang lebih panjang.
Metode HTTP dan URL:
POST https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent
Isi JSON permintaan:
{ "contents": [ { "role": "USER", "parts": { "text" : "Why is sky blue?" } } ], "generation_config": { "temperature":TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "maxOutputTokens": MAX_OUTPUT_TOKENS } }
Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:
curl
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent"
PowerShell
Simpan isi permintaan dalam file bernama request.json
,
dan jalankan perintah berikut:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent" | Select-Object -Expand Content
Anda akan melihat respons JSON yang mirip seperti berikut:
Menghapus model yang disesuaikan
Model yang disesuaikan tidak dapat dihapus.
Metrik penyesuaian dan validasi
Anda dapat mengonfigurasi tugas penyesuaian model untuk mengumpulkan dan melaporkan metrik penyesuaian model dan evaluasi model, yang kemudian dapat divisualisasikan di Vertex AI Studio.
Untuk melihat detail model yang disesuaikan di konsol Google Cloud , buka halaman Vertex AI Studio.
Di tabel Tune and Distill, klik nama model yang di-tune yang metriknya ingin Anda lihat.
Metrik penyesuaian muncul di tab Monitor.
Metrik penyesuaian model
Tugas penyesuaian model secara otomatis mengumpulkan metrik penyesuaian berikut untuk Gemini 2.0 Flash
:
/train_total_loss
: Kerugian untuk set data penyesuaian pada langkah pelatihan./train_fraction_of_correct_next_step_preds
: Akurasi token pada langkah pelatihan. Satu prediksi terdiri dari serangkaian token. Metrik ini mengukur akurasi token yang diprediksi jika dibandingkan dengan kebenaran dasar dalam set data penyesuaian./train_num_predictions
: Jumlah token yang diprediksi pada langkah pelatihan.
Metrik validasi model
Anda dapat mengonfigurasi tugas penyesuaian model untuk mengumpulkan metrik validasi berikut
untuk Gemini 2.0 Flash
:
/eval_total_loss
: Kerugian untuk set data validasi pada langkah validasi./eval_fraction_of_correct_next_step_preds
: Akurasi token pada langkah validasi. Satu prediksi terdiri dari serangkaian token. Metrik ini mengukur akurasi token yang diprediksi jika dibandingkan dengan kebenaran dasar dalam set data validasi./eval_num_predictions
: Jumlah token yang diprediksi pada langkah validasi.
Visualisasi metrik tersedia setelah tugas penyesuaian mulai berjalan. Nilai ini akan diperbarui secara real time seiring dengan progres penyesuaian. Jika Anda tidak menentukan set data validasi saat membuat tugas penyesuaian, hanya visualisasi untuk metrik penyesuaian yang tersedia.
Langkah berikutnya
Pelajari cara men-deploy model Gemini yang disesuaikan.
Untuk mempelajari cara penggunaan penyesuaian terawasi dalam solusi yang membangun pusat informasi AI generatif, lihat Solusi Praktis: Pusat informasi AI generatif.
Pelajari cara menyesuaikan model AI Generatif dengan Penyesuaian Terawasi Vertex AI