Cada chamada que você envia a um modelo inclui valores de parâmetros que controlam como o modelo gera uma resposta. O modelo pode gerar diferentes resultados para diferentes valores de parâmetros. Teste diferentes valores de parâmetros para conseguir os melhores valores para a tarefa. Os parâmetros disponíveis para modelos diferentes podem ser diferentes. Os parâmetros mais comuns são:
- Máximo de tokens de saída
- Temperatura
- Top-K
- Top-P
Máximo de tokens de saída
Número máximo de tokens que podem ser gerados na resposta. Um token tem cerca de quatro caracteres. 100 tokens correspondem a cerca de 60 a 80 palavras.Especifique um valor mais baixo para respostas mais curtas e um valor mais alto para respostas potencialmente mais longas.
Temperatura
A temperatura é usada para amostragem durante a geração da resposta, que ocorre quandotopP
e topK
são aplicados. A temperatura controla o grau de aleatoriedade na seleção do token.
Temperaturas mais baixas são boas para solicitações que exigem uma resposta menos aberta ou criativa, enquanto temperaturas mais altas podem levar a resultados mais diversos ou criativos. Uma temperatura de 0
significa que os tokens de maior probabilidade são sempre selecionados. Nesse caso, as respostas para uma determinada solicitação são, na maioria das vezes, deterministas, mas uma pequena variação ainda é possível.
Se o modelo retornar uma resposta muito genérica, muito curta ou se o modelo fornecer uma resposta alternativa, tente aumentar a temperatura.
Cada modelo tem o próprio intervalo de temperatura e valor padrão:
- Intervalo para
gemini-1.5-flash
:0.0 - 2.0
(padrão:1.0
) - Intervalo para
gemini-1.5-pro
:0.0 - 2.0
(padrão:1.0
) - Intervalo para
gemini-1.0-pro-vision
:0.0 - 1.0
(padrão:0.4
) - Intervalo para
gemini-1.0-pro-002
:0.0 - 2.0
(padrão:1.0
) - Intervalo para
gemini-1.0-pro-001
:0.0 - 1.0
(padrão:0.9
)
gemini-1.5-pro
e gemini-1.0-pro-002
permitem que você
aumente significativamente a aleatoriedade além do valor padrão.
Top-K
O top-k muda a forma como o modelo seleciona tokens para saída. Um top-K de1
significa que o próximo token selecionado é o mais provável entre todos
os tokens no vocabulário do modelo (também chamado de decodificação gananciosa), enquanto um top-K de
3
significa que o próximo token está selecionado entre os três tokens mais
prováveis usando a temperatura.
Para cada etapa da seleção de tokens, são amostrados os tokens top-K com as maiores probabilidades. Em seguida, os tokens são filtrados com base no valor de top-P com o token final selecionado por meio da amostragem de temperatura.
Especifique um valor mais baixo para respostas menos aleatórias e um valor mais alto para respostas mais aleatórias.
Top-P
O top-p muda a forma como o modelo seleciona tokens para saída. Os tokens são selecionados do mais provável (veja o top-K) para o menos provável até que a soma das probabilidades seja igual ao valor do top-P. Por exemplo, se os tokens A, B e C tiverem uma probabilidade de 0,3, 0,2 e 0,1 e o valor de top-P for0.5
, o modelo selecionará A ou B como token seguinte usando temperatura e exclui C como
candidato.
Especifique um valor mais baixo para respostas menos aleatórias e um valor mais alto para respostas mais aleatórias.
A seguir
- Confira exemplos de comandos na galeria de comandos.
- Aprenda a otimizar comandos para uso com modelos do Google usando o otimizador de comandos da Vertex AI (pré-lançamento).