Mulai 29 April 2025, model Gemini 1.5 Pro dan Gemini 1.5 Flash tidak tersedia di project yang belum pernah menggunakan model ini, termasuk project baru. Untuk mengetahui detailnya, lihat Versi dan siklus proses model.
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Fitur Bandingkan memungkinkan Anda melihat bagaimana perintah, model, atau setelan parameter yang berbeda mengubah output model. Anda dapat melihat setiap perintah dan responsnya secara berdampingan untuk membandingkan dan menganalisis dengan cara berikut:
Dengan perintah baru.
Dengan perintah tersimpan lainnya.
Dengan kebenaran nyata.
Sebelum memulai
Untuk mengakses fitur Bandingkan, ikuti langkah-langkah berikut:
Di konsol Google Cloud , buka halaman Create prompt.
Klik Simpan, yang akan menyimpan perintah Anda dalam daftar perintah untuk digunakan di halaman Bandingkan perintah tersimpan.
Klik Kirim perintah untuk membandingkan perintah dan responsnya.
Anda dapat memperbarui perintah, dan menyimpan versi yang diperbarui sebagai perintah baru.
Membandingkan dengan perintah baru
Untuk membandingkan perintah tersimpan dengan perintah baru, ikuti langkah-langkah berikut:
Klik Bandingkan perintah baru. Panel Bandingkan akan muncul.
Opsional: Klik Ganti model untuk menggunakan model yang berbeda dari
model default.
Opsional: Luaskan Output.
Output:
Opsional: Jika Anda ingin model menghasilkan output dalam format tertentu seperti
JSON, klik tombol Output terstruktur. Setelah Anda memilih
Output terstruktur, opsi Perujukan akan dinonaktifkan, karena
perujukan tidak didukung dengan output terstruktur.
Opsional: Ubah Anggaran berpikir ke salah satu opsi berikut:
Otomatis: Model hanya berpikir saat diperlukan. Model
menyesuaikan seberapa banyak ia berpikir atau menganalisis suatu situasi berdasarkan apa yang
diperlukan pada saat itu.
Manual: Anda dapat menyesuaikan token anggaran penalaran.
Nonaktif: Tidak ada pemikiran atau anggaran yang digunakan.
Opsional: Luaskan Alat.
Alat:
Pilih salah satu opsi berikut:
Perujukan: Google: Merujuk dengan Google Penelusuran atau Google Maps.
Perujukan: Data Anda: Perujukan dengan Vertex AI RAG Engine, Vertex AI Search, atau Elasticsearch.
Jika Anda memilih Perujukan: Data Anda, pilih
sumber data yang ingin Anda gunakan.
Opsional: Luaskan Lanjutan:
Lanjutan:
Pilih Region.
Pilih Setelan Filter Keamanan. Dialog akan muncul. Tetapkan
default Nonaktif, atau Anda dapat menentukan Blokir sedikit, Blokir
beberapa, atau Blokir sebagian besar untuk setiap opsi berikut:
Ujaran kebencian: Komentar negatif atau berbahaya yang menargetkan identitas atau atribut yang dilindungi.
Konten berbahaya: Mempromosikan atau memungkinkan akses ke barang, layanan, dan aktivitas berbahaya.
Konten seksual vulgar: Berisi referensi ke tindakan seksual atau konten cabul lainnya.
Konten pelecehan: Komentar berbahaya, mengintimidasi, menindas, atau melecehkan yang menargetkan individu lain.
Klik Simpan untuk menyimpan setelan dan menutup dialog.
Pilih suhu dari kolom Suhu. Suhu mengontrol keacakan dalam pemilihan token. Temperatur yang lebih rendah akan efektif jika Anda mengharapkan respons yang benar atau tepat. Temperatur yang lebih tinggi dapat memberikan hasil yang beragam atau tidak terduga.
Pilih batas token output dari kolom Batas token output. Batas token output menentukan jumlah maksimum output teks
dari satu perintah. Token terdiri atas sekitar empat karakter.
Pilih respons maksimum dari kolom Respons maks..
Jika jumlah maksimum respons model yang dihasilkan per perintah.
Karena filter keamanan atau kebijakan lainnya, respons masih dapat diblokir.
Pilih nilai dari kolom Top-P. Top-p mengubah cara
model memilih token untuk output.
Klik tombol di kolom Respons model streaming. Jika
dipilih, respons akan dicetak saat dihasilkan.
Masukkan urutan perhentian di kolom Tambahkan urutan perhentian. Tekan
Enter setelah setiap urutan.
Klik Simpan untuk menyimpan perubahan pada setelan Anda.
Klik Terapkan.
Klik Kirim perintah untuk membandingkan perintah dan responsnya.
Untuk mengetahui informasi selengkapnya tentang batas token untuk setiap model, lihat Mengontrol anggaran
pemikiran.
Membandingkan dengan perintah tersimpan lainnya
Untuk membandingkan perintah tersimpan Anda dengan perintah tersimpan lainnya, ikuti langkah-langkah berikut:
Klik Bandingkan perintah tersimpan. Panel Existing Prompt akan muncul.
Pilih hingga dua perintah yang ada untuk dibandingkan.
Pilih Nama perintah. Jika Anda memiliki banyak perintah dalam daftar, klik
di kolom Filter, lalu pilih properti yang ingin
Anda filter. Masukkan nilai, lalu tekan Enter.
Klik Terapkan. Halaman Bandingkan menampilkan perintah yang telah Anda pilih bersama dengan perintah lain yang telah Anda buat atau pilih untuk perbandingan.
Klik Kirim perintah untuk membandingkan perintah dan responsnya.
Membandingkan dengan kebenaran nyata
Kebenaran dasar adalah jawaban yang Anda pilih atas perintah. Semua respons model lainnya
dievaluasi terhadap jawaban kebenaran dasar.
Untuk membandingkan perintah tersimpan Anda dengan data sebenarnya, ikuti langkah-langkah berikut:
Klik Kebenaran dasar. Panel Kebenaran dasar akan muncul.
Masukkan kebenaran nyata Anda untuk membuat metrik evaluasi tambahan.
Klik Simpan untuk menyimpan data sebenarnya.
Klik Kirim perintah untuk membandingkan perintah dan responsnya.
Metrik evaluasi yang dihasilkan saat Anda membandingkan perintah dengan kebenaran dasar tidak terpengaruh oleh region yang Anda pilih.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-09-04 UTC."],[],[],null,["# Compare prompts\n\nThe Compare feature lets you see how a different prompt, model, or a parameter\nsetting changes the model's output. You can view each of the prompts and their\nresponses side by side to compare and analyze in the following ways:\n\n- With a new prompt.\n- With another saved prompt.\n- With a ground truth.\n\n| **Note:** The Compare feature doesn't support prompts with media or chat prompts with more than one exchange.\n\nBefore you begin\n----------------\n\nTo access the Compare feature, follow these steps:\n\n1. In the Google Cloud console, go to the **Create prompt** page.\n\n [Go to Create prompt](https://console.cloud.google.com/vertex-ai/studio/multimodal)\n2. Select **Compare** . The **Compare** page appears.\n\nCreate a prompt in the Compare feature\n--------------------------------------\n\nOn the **Compare** page, you can create a prompt before selecting another prompt\nto compare results.\n\nTo create a prompt, follow these steps:\n\n1. In the **New Prompt** field, enter your prompt.\n\n2. Click **Submit prompts**. The model's response appears below the prompt text\n that you entered.\n\n3. Click **Save as new** . A **Save prompt** dialog appears.\n\n4. Enter the name of your new prompt in the **Prompt name** field.\n\n5. Select your region in the **Region** field, or leave it as the default region.\n\n6. If a customer-managed encryption key (CMEK) applies, do the following:\n\n 1. Select the **Customer-managed encryption key (CMEK)** checkbox.\n 2. Select a key from the **Select a Cloud KMS key** field.\n7. Click **Save** , which saves your prompt in the list of prompts to use on\n the **Compare saved prompt** page.\n\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nYou can update your prompts, and save updated versions as new prompts.\n\nCompare with a new prompt\n-------------------------\n\nTo compare your saved prompt with a new prompt, follow these steps:\n\n1. Click **Compare new prompt** . A **Compare** pane appears.\n2. Optional: Click **Switch model** to use a different model from the default model.\n3. Optional: Expand **Outputs**. \n\n##### Outputs:\n\n1. Optional: If you want the model to output in a specific format such as JSON, click the **Structured output** toggle. After you select **Structured output**, the Grounding options are turned off, because grounding isn't supported with structured output.\n2. Optional: Change the **Thinking budget** to one of the following options:\n - **Auto**: The model only thinks when it needs to. The model adjusts how much it thinks or analyzes a situation based on what's needed at the time.\n - **Manual**: You can adjust the thinking budget tokens.\n - **Off**: No thinking or budgets are used.\n\n\u003c!-- --\u003e\n\n4. Optional: Expand **Tools**. \n\n##### Tools:\n\n1. Select one of the following options:\n - **Grounding: Google**: Grounding with Google Search or Google Maps.\n - **Grounding: Your data**: Grounding with Vertex AI RAG Engine, Vertex AI Search or Elasticsearch.\n 1. If you select **Grounding: Your data**, select the data source that you want to use.\n\n\u003c!-- --\u003e\n\n5. Optional: Expand **Advanced**: \n\n##### Advanced:\n\n1. Select **Region**.\n2. Select **Safety Filter Settings** . A dialog appears. Keep the default of **Off** , or you can specify **Block few** , **Block\n some** , or **Block most** for each of the following options:\n - **Hate speech**: Negative or harmful comments targeting identity or protected attributes.\n - **Dangerous content**: Promotes or enables access to harmful goods, services, and activities.\n - **Sexually explicit content**: Contains references to sexual acts or other lewd content.\n - **Harassment content**: Malicious, intimidating, bullying, or abusive comments targeting another individual.\n3. Click **Save** to save the settings and close the dialog.\n4. Select the temperature from the **Temperature** field. The temperature controls the randomness in token selection. A lower temperature is good when you expect a true or correct response. A higher temperature can lead to diverse or unexpected results.\n5. Select the output token limit from the **Output token limit** field. Output token limit determines the maximum amount of text output from one prompt. A token is approximately four characters.\n6. Select the maximum responses from the **Max responses** field. If the maximum number of model responses generated per prompt. Because of safety filters or other policies, responses can still be blocked.\n7. Select a value from the **Top-P** field. The Top-p changes how the model selects tokens for output.\n8. Click toggle on the **Stream model responses** field. If selected, the responses are printed as they're generated.\n9. Enter a stop sequence in the **Add stop sequence** field. Press **Enter** after each sequence.\n\n\u003c!-- --\u003e\n\n6. Click **Save** to save changes to your settings.\n7. Click **Apply**.\n8. Click **Submit prompts** to compare the prompts and their responses.\n\nFor more information on token limits for each model, see [Control the thinking\nbudget](/vertex-ai/generative-ai/docs/thinking#budget).\n\nCompare with another saved prompt\n---------------------------------\n\nTo compare your saved prompt with another saved prompt, follow these steps:\n\n1. Click **Compare saved prompt** . The **Existing Prompt** pane appears.\n2. Choose up to two existing prompts to compare.\n\n 1. Select a **Prompt name** . If you have many prompts in your list, click in the **Filter** field, and select the property that you want to filter by. Enter a value, and press \u003ckbd\u003eEnter\u003c/kbd\u003e.\n 2. Click **Apply** . The **Compare** page displays the prompt that you've selected alongside other prompts that you've created or selected for comparison.\n3. Click **Submit prompts** to compare the prompts and their responses.\n\nCompare with a ground truth\n---------------------------\n\nGround truth is your preferred answer to the prompt. All other model responses\nare evaluated against the ground truth answer.\n\nTo compare your saved prompt with a ground truth, follow these steps:\n\n1. Click **Ground truth** . The **Ground truth** pane appears.\n2. Enter your ground truth to generate additional evaluation metrics.\n3. Click **Save** to save the ground truth.\n4. Click **Submit prompts** to compare the prompts and their responses.\n\nThe evaluation metrics that are generated when you compare a prompt with a\nground truth aren't affected by the region that you select.\n\nWhat's next\n-----------\n\n- Explore more examples of prompts in the [Prompt gallery](/vertex-ai/generative-ai/docs/prompt-gallery).\n- For more information about evaluating your models, see [Gen AI evaluation service\n overview](/vertex-ai/generative-ai/docs/models/evaluation-overview)."]]