A forma mais simples de gerar texto com a API Gemini Chat Completions é fornecer ao modelo uma única entrada apenas de texto. Pode usar o ponto final de conclusões de chat na API REST e usar um cliente HTTP ou os SDKs oficiais da OpenAI para Python.
Para mais informações sobre a geração de texto com o Gemini e instruções passo a passo sobre o envio de pedidos de API, consulte o artigo Envie um comando de texto.
Para saber mais sobre a OpenAI e o ponto final Chat Completions que o Gemini implementa no Google Distributed Cloud (GDC) air-gapped, consulte https://platform.openai.com/docs/api-reference/chat.
Gere texto a partir de um comando
Os exemplos seguintes mostram um pedido da API Gemini Chat Completions com uma única entrada apenas de texto através dos SDKs oficiais da OpenAI para Python ou curl.
Python
import openai
client = openai.OpenAI(
base_url = "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT",
)
model_response = client.chat.completions.create(
model = "MODEL_ID",
messages = [{"role": "user", "content": "Write a story about a magic backpack." }]
)
print(model_response)
Substitua MODEL_ID pelo ID do ponto final do modelo que quer
para gerar a resposta.
curl
curl \
-X POST "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT/chat/completions" \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gdcloud auth print-identity-token)" \
-d '{
"model_id": "MODEL_ID",
"messages": [
{
"role": "user",
"content": "Write a story about a magic backpack."
}
]
}'
Substitua o seguinte:
ENDPOINT: o ponto final da API que usa para a sua organização.PROJECT: o ID do seu projeto.MODEL_ID: o ID do ponto final do modelo para o qual quer gerar a resposta.
Faça experiências com parâmetros
Todos os comandos que envia para o modelo incluem parâmetros que controlam a forma como o modelo gera respostas. Os diferentes valores dos parâmetros podem gerar resultados diferentes. Experimente diferentes valores de parâmetros para obter os melhores valores para a tarefa. Os parâmetros disponíveis para diferentes modelos podem variar. Se não configurar os parâmetros, o modelo usa as opções predefinidas.
Os parâmetros mais comuns são os seguintes:
| Parâmetro | Descrição | Nome do campo |
|---|---|---|
| Máximo de símbolos | Número máximo de tokens que podem ser gerados na resposta. Um token tem aproximadamente quatro carateres. 100 tokens correspondem a 60 a 80 palavras. Especifique um valor mais baixo para respostas mais curtas e um valor mais alto para respostas potencialmente mais longas. |
max_completion_tokens |
| Temperatura | O grau de aleatoriedade na seleção de tokens. A temperatura é usada para a amostragem durante a geração de respostas, que ocorre quando top_p é aplicada.Use valores mais baixos para comandos que exijam respostas menos criativas ou mais abertas. Os valores mais elevados podem gerar resultados mais diversificados ou criativos. Uma temperatura de 0 significa que os tokens de maior probabilidade são sempre selecionados. Neste caso, as respostas a um determinado comando são maioritariamente determinísticas, mas ainda é possível uma pequena variação.Se uma resposta for demasiado genérica, demasiado curta ou o modelo der uma resposta alternativa, aumente a temperatura. Seguem-se o intervalo de temperatura e o valor predefinido para os modelos Gemini na GDC:
|
temperature |
| Top-P | Um valor de probabilidade de limite que altera a forma como o modelo seleciona tokens para saída. Os tokens são selecionados do mais para o menos provável até que a soma das respetivas probabilidades seja igual ao valor de Top-P. Por exemplo, se os tokens A, B e C tiverem uma probabilidade de 0,3, 0,2 e 0,1 e o valor de top-P for 0.5, o modelo seleciona A ou B como o token seguinte através da temperatura e exclui C como candidato.Especifique um valor mais baixo para respostas menos aleatórias e um valor mais elevado para respostas mais aleatórias. |
top_p |
O curl exemplo seguinte mostra como configurar o temperature para um valor de 1.5 e o max_completion_tokens para 800:
curl \
-X POST "https://ENDPOINT:443/v1/projects/PROJECT/locations/PROJECT/chat/completions" \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer $(gdcloud auth print-identity-token)" \
-d '{
"model_id": "MODEL_ID",
"messages": [
{
"role": "user",
"content": "Write a story about a magic backpack."
}
],
"temperature": 1.5,
"max_completion_tokens": 800
}'
Para mais informações sobre a experimentação com parâmetros através do ponto final de conclusão de chat da OpenAI, consulte https://platform.openai.com/docs/api-reference/chat/create.
O que se segue?
Saiba como enviar pedidos de comandos multimodais: