Il modo più semplice per generare testo utilizzando l'API Gemini Chat Completions è fornire al modello un unico input di solo testo. Puoi utilizzare l'endpoint completamento della chat nell'API REST e utilizzare un client HTTP o gli SDK ufficiali di OpenAI per Python.
Per saperne di più sulla generazione di testo con Gemini e per istruzioni passo passo sull'invio di richieste API, consulta Inviare un prompt di testo.
Per saperne di più su OpenAI e sull'endpoint Chat Completions che Gemini implementa in Google Distributed Cloud (GDC) air-gapped, consulta https://platform.openai.com/docs/api-reference/chat.
Generare testo da un prompt
Gli esempi seguenti mostrano una richiesta dell'API Gemini Chat Completions con
un singolo input di solo testo utilizzando gli SDK ufficiali di OpenAI per Python o curl.
Python
import openai
client = openai.OpenAI(
base_url = "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT",
)
model_response = client.chat.completions.create(
model = "MODEL_ID",
messages = [{"role": "user", "content": "Write a story about a magic backpack." }]
)
print(model_response)
Sostituisci MODEL_ID con l'ID endpoint del modello che vuoi utilizzare per generare la risposta.
curl
curl \
-X POST "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT/chat/completions" \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gdcloud auth print-identity-token)" \
-d '{
"model_id": "MODEL_ID",
"messages": [
{
"role": "user",
"content": "Write a story about a magic backpack."
}
]
}'
Sostituisci quanto segue:
ENDPOINT: l'endpoint API che utilizzi per la tua organizzazione.PROJECT: il tuo ID progetto.MODEL_ID: l'ID endpoint del modello da cui vuoi generare la risposta.
Sperimenta con i parametri
Ogni prompt che invii al modello include parametri che controllano il modo in cui il modello genera le risposte. Valori parametro diversi possono generare risultati diversi. Sperimenta con diversi valori parametro per ottenere i valori migliori per l'attività. I parametri disponibili per i vari modelli possono variare. Se non configuri i parametri, il modello utilizza le opzioni predefinite.
I parametri più comuni sono i seguenti:
| Parametro | Descrizione | Nome campo |
|---|---|---|
| Token massimi | Numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a 60-80 parole. Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe. |
max_completion_tokens |
| Temperatura | Il grado di casualità nella selezione dei token. La temperatura viene utilizzata per il campionamento durante la generazione della risposta, che si verifica quando viene applicato top_p.Utilizza valori più bassi per i prompt che richiedono risposte meno creative o aperte; valori più alti possono portare a risultati più diversificati o creativi. Una temperatura pari a 0 indica che vengono sempre selezionati i token con la probabilità più alta. In questo caso, le risposte a un determinato prompt sono per lo più deterministiche, ma è comunque possibile una piccola variazione.Se una risposta è troppo generica, troppo breve o il modello fornisce una risposta di riserva, aumenta la temperatura. Di seguito sono riportati l'intervallo di temperatura e il valore predefinito per i modelli Gemini in GDC:
|
temperature |
| Top-P | Un valore di probabilità soglia che cambia il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile al meno probabile finché la somma delle probabilità non corrisponde al valore di top-P. Ad esempio, se i token A, B e C hanno una probabilità di 0,3, 0,2 e 0,1 e il valore di top-P è 0.5, il modello seleziona A o B come token successivo utilizzando la temperatura ed esclude C come candidato.Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. |
top_p |
Il seguente esempio di curl mostra come configurare temperature su un valore
di 1.5 e max_completion_tokens su 800:
curl \
-X POST "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT/chat/completions" \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gdcloud auth print-identity-token)" \
-d '{
"model_id": "MODEL_ID",
"messages": [
{
"role": "user",
"content": "Write a story about a magic backpack."
}
],
"temperature": 1.5,
"max_completion_tokens": 800
}'
Per saperne di più sulla sperimentazione con i parametri utilizzando l'endpoint di completamento della chat di OpenAI, consulta la pagina https://platform.openai.com/docs/api-reference/chat/create.
Passaggi successivi
Scopri come inviare richieste di prompt multimodali: