Buat teks

Cara paling sederhana untuk membuat teks menggunakan Gemini Chat Completions API adalah dengan memberikan satu input khusus teks ke model. Anda dapat menggunakan endpoint penyelesaian chat di REST API dan menggunakan klien HTTP atau SDK resmi OpenAI untuk Python.

Untuk mengetahui informasi selengkapnya tentang pembuatan teks dengan Gemini dan petunjuk langkah demi langkah tentang cara mengirim permintaan API, lihat Mengirim perintah teks.

Untuk mempelajari lebih lanjut OpenAI dan endpoint Chat Completions yang diterapkan Gemini dalam lingkungan air-gapped Google Distributed Cloud (GDC), lihat https://platform.openai.com/docs/api-reference/chat.

Membuat teks dari perintah

Contoh berikut menunjukkan permintaan Gemini Chat Completions API dengan input khusus teks tunggal menggunakan SDK resmi OpenAI untuk Python atau curl.

Python

import openai

client = openai.OpenAI(
  base_url = "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT",
)

model_response = client.chat.completions.create(
  model = "MODEL_ID",
  messages = [{"role": "user", "content": "Write a story about a magic backpack." }]
)

print(model_response)

Ganti MODEL_ID dengan ID endpoint model yang ingin Anda gunakan untuk membuat respons.

curl

curl \
  -X POST "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT/chat/completions" \
  -H "Content-Type: application/json; charset=utf-8" \
  -H "Authorization: Bearer $(gdcloud auth print-identity-token)" \
  -d '{
      "model_id": "MODEL_ID",
      "messages": [
          {
              "role": "user",
              "content": "Write a story about a magic backpack."
          }
      ]
  }'

Ganti kode berikut:

  • ENDPOINT: endpoint API yang Anda gunakan untuk organisasi Anda.
  • PROJECT: project ID Anda.
  • MODEL_ID: ID endpoint model yang ingin Anda gunakan untuk membuat respons.

Bereksperimen dengan parameter

Setiap perintah yang Anda kirim ke model menyertakan parameter yang mengontrol cara model menghasilkan respons. Nilai parameter yang berbeda dapat menghasilkan hasil yang berbeda. Bereksperimenlah dengan parameter value yang berbeda untuk mendapatkan nilai terbaik untuk tugas tersebut. Parameter yang tersedia untuk model yang berbeda mungkin akan berbeda pula. Jika Anda tidak mengonfigurasi parameter, model akan menggunakan opsi default.

Parameter yang paling umum adalah sebagai berikut:

Parameter Deskripsi Nama kolom
Token maks Jumlah maksimum token yang dapat dibuat dalam respons.

Token terdiri atas sekitar empat karakter. 100 token setara dengan 60-80 kata.

Tentukan nilai yang lebih rendah untuk respons yang lebih singkat dan nilai yang lebih tinggi untuk potensi respons yang lebih panjang.
max_completion_tokens
Temperatur Tingkat keacakan dalam pemilihan token. Temperatur digunakan untuk pengambilan sampel selama pembuatan respons, yang terjadi saat top_p diterapkan.

Gunakan nilai yang lebih rendah untuk perintah yang memerlukan respons yang kurang kreatif atau terbuka; nilai yang lebih tinggi dapat memberikan hasil yang lebih beragam atau kreatif.

Temperatur 0 berarti token dengan probabilitas tertinggi akan selalu dipilih. Dalam hal ini, respons untuk perintah tertentu sebagian besar bersifat deterministik, tetapi sejumlah kecil variasi masih memungkinkan.

Jika respons terlalu umum, terlalu pendek, atau model memberikan respons pengganti, tingkatkan suhunya.

Berikut adalah rentang suhu dan nilai default untuk model Gemini di GDC:
  • Rentang suhu: 0.0 - 2.0
  • Nilai default: 1.0
temperature
Top-P Nilai probabilitas batas yang mengubah cara model memilih token untuk output.

Token dipilih dari yang paling mungkin hingga yang paling tidak mungkin sampai jumlah probabilitasnya sama dengan nilai top-P. Misalnya, jika token A, B, dan C memiliki probabilitas 0,3, 0,2, dan 0,1 dengan nilai top-P adalah 0.5, maka model akan memilih A atau B sebagai token berikutnya dengan menggunakan suhu dan mengecualikan C sebagai kandidat.

Tentukan nilai yang lebih rendah untuk respons yang kurang acak dan nilai yang lebih tinggi untuk respons yang lebih acak.
top_p

Contoh curl berikut menunjukkan cara mengonfigurasi temperature ke nilai 1.5 dan max_completion_tokens ke 800:

curl \
  -X POST "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT/chat/completions" \
  -H "Content-Type: application/json; charset=utf-8" \
  -H "Authorization: Bearer $(gdcloud auth print-identity-token)" \
  -d '{
      "model_id": "MODEL_ID",
      "messages": [
          {
              "role": "user",
              "content": "Write a story about a magic backpack."
          }
      ],
      "temperature": 1.5,
      "max_completion_tokens": 800
  }'

Untuk mengetahui informasi selengkapnya tentang bereksperimen dengan parameter menggunakan endpoint penyelesaian chat OpenAI, lihat https://platform.openai.com/docs/api-reference/chat/create.

Langkah berikutnya