Parameter pembuatan konten

Halaman ini menampilkan parameter sampling opsional yang dapat Anda tetapkan dalam permintaan ke model. Parameter yang tersedia untuk setiap model mungkin berbeda. Untuk informasi selengkapnya, lihat dokumentasi referensi.

Parameter pengambilan sampel token

Top-P

Top-P mengubah cara model memilih token untuk output. Token dipilih dari yang paling mungkin (lihat top-K) hingga yang paling tidak mungkin sampai jumlah probabilitasnya sama dengan nilai top-P. Misalnya, jika token A, B, dan C memiliki probabilitas 0,3, 0,2, dan 0,1 dengan nilai top-P 0.5, model akan memilih A atau B sebagai token berikutnya dengan menggunakan suhu dan mengecualikan C sebagai kandidat.

Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak yang lebih banyak.

Untuk informasi selengkapnya, lihat topP.

Top-K

Top-K mengubah cara model memilih token untuk output. Top-K 1 berarti token yang dipilih berikutnya adalah yang paling mungkin di antara semua token dalam kosakata model (juga disebut decoding greedy), sedangkan top-K 3 berarti token berikutnya dipilih di antara tiga token yang paling mungkin dengan menggunakan suhu.

Untuk setiap langkah pemilihan token, token top-K dengan probabilitas tertinggi akan diambil sampelnya. Kemudian token akan difilter lebih lanjut berdasarkan top-P dengan token akhir yang dipilih menggunakan pengambilan sampel suhu.

Tentukan nilai yang lebih rendah untuk respons acak yang lebih sedikit dan nilai yang lebih tinggi untuk respons acak yang lebih banyak.

Untuk informasi selengkapnya, lihat topK.

Temperature (suhu)

Suhu digunakan untuk pengambilan sampel selama pembuatan respons, yang terjadi saat topP dan topK diterapkan. Suhu mengontrol tingkat keacakan dalam pemilihan token. Suhu yang lebih rendah cocok untuk perintah yang memerlukan respons yang kurang terbuka atau kreatif, sedangkan suhu yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif. Suhu 0 berarti token probabilitas tertinggi selalu dipilih. Dalam hal ini, respons untuk permintaan tertentu sebagian besar deterministik, tetapi sedikit variasi masih dapat dilakukan.

Jika model menampilkan respons yang terlalu umum, terlalu pendek, atau model memberikan respons pengganti, coba tingkatkan suhunya.

Suhu yang lebih rendah menghasilkan hasil yang dapat diprediksi (tetapi tidak sepenuhnya deterministik). Untuk informasi selengkapnya, lihat temperature.

Parameter penghentian

Token output maksimum

Tetapkan maxOutputTokens untuk membatasi jumlah token yang dihasilkan dalam respons. Token terdiri dari sekitar empat karakter, sehingga 100 token setara dengan sekitar 60-80 kata. Tetapkan nilai rendah untuk membatasi durasi respons.

Urutan berhenti

Tentukan string di stopSequences untuk memberi tahu model agar berhenti menghasilkan teks jika salah satu string ditemukan dalam respons. Jika string muncul beberapa kali dalam respons, respons akan dipotong di tempat string pertama kali ditemukan. String peka huruf besar/kecil.

Parameter penalti token

Denda frekuensi

Nilai positif akan menghukum token yang berulang kali muncul dalam teks yang dihasilkan, sehingga mengurangi kemungkinan konten berulang. Nilai minimumnya adalah -2.0. Nilai maksimumnya adalah hingga, tetapi tidak termasuk, 2.0. Untuk informasi selengkapnya, lihat frequencyPenalty.

Penalti kehadiran

Nilai positif akan menghukum token yang sudah muncul dalam teks yang dihasilkan, sehingga meningkatkan probabilitas untuk menghasilkan konten yang lebih beragam. Nilai minimumnya adalah -2.0. Nilai maksimumnya adalah hingga, tetapi tidak termasuk, 2.0. Untuk informasi selengkapnya, lihat presencePenalty.

Parameter lanjutan

Gunakan parameter ini untuk menampilkan informasi selengkapnya tentang token dalam respons atau untuk mengontrol variabilitas respons.

Mencatat probabilitas token output

Menampilkan log probabilitas token kandidat teratas pada setiap langkah pembuatan. Token yang dipilih model mungkin tidak sama dengan token kandidat teratas di setiap langkah. Tentukan jumlah kandidat yang akan ditampilkan menggunakan nilai bilangan bulat dalam rentang 1-5. Untuk informasi selengkapnya, lihat logprobs. Anda juga perlu menetapkan parameter responseLogprobs ke true untuk menggunakan fitur ini.

Parameter responseLogprobs menampilkan log probabilitas token yang dipilih oleh model pada setiap langkah.

Pendanaan awal

Jika seed ditetapkan ke nilai tertentu, model akan berusaha sebaik mungkin untuk memberikan respons yang sama untuk permintaan berulang. Output deterministik tidak dijamin. Selain itu, mengubah setelan model atau parameter, seperti suhu, dapat menyebabkan variasi respons meskipun Anda menggunakan nilai seed yang sama. Secara default, nilai seed acak akan digunakan. Untuk informasi selengkapnya, lihat seed.