Parâmetros de geração de conteúdo

Esta página mostra os parâmetros de amostragem opcionais que podem ser definidos em uma solicitação para um modelo. Os parâmetros disponíveis para cada modelo podem ser diferentes. Para mais informações, consulte a documentação de referência.

Parâmetros de amostragem de token

Top-P

O top-p muda a forma como o modelo seleciona tokens para saída. Os tokens são selecionados do mais provável (veja o top-K) para o menos provável até que a soma das probabilidades seja igual ao valor do top-P. Por exemplo, se os tokens A, B e C tiverem uma probabilidade de 0,3, 0,2 e 0,1 e o valor de top-P for 0.5, o modelo selecionará A ou B como token seguinte usando temperatura e exclui C como candidato.

Especifique um valor mais baixo para respostas menos aleatórias e um valor mais alto para respostas mais aleatórias.

Para ver mais informações, consulte topP.

Top-K

O top-k muda a forma como o modelo seleciona tokens para saída. Um top-K de 1 significa que o próximo token selecionado é o mais provável entre todos os tokens no vocabulário do modelo (também chamado de decodificação gananciosa), enquanto um top-K de 3 significa que o próximo token está selecionado entre os três tokens mais prováveis usando a temperatura.

Para cada etapa da seleção de tokens, são amostrados os tokens top-K com as maiores probabilidades. Em seguida, os tokens são filtrados com base no valor de top-P com o token final selecionado por meio da amostragem de temperatura.

Especifique um valor mais baixo para respostas menos aleatórias e um valor mais alto para respostas mais aleatórias.

Para ver mais informações, consulte topK.

Temperatura

A temperatura é usada para amostragem durante a geração da resposta, que ocorre quando topP e topK são aplicados. A temperatura controla o grau de aleatoriedade na seleção do token. Temperaturas mais baixas são boas para solicitações que exigem uma resposta menos aberta ou criativa, enquanto temperaturas mais altas podem levar a resultados mais diversos ou criativos. Uma temperatura de 0 significa que os tokens de maior probabilidade são sempre selecionados. Nesse caso, as respostas para uma determinada solicitação são, na maioria das vezes, deterministas, mas uma pequena variação ainda é possível.

Se o modelo retornar uma resposta muito genérica, muito curta ou se o modelo fornecer uma resposta alternativa, tente aumentar a temperatura.

Temperaturas mais baixas levam a resultados previsíveis (mas não totalmente determinísticos). Para ver mais informações, consulte temperature.

Como interromper parâmetros

Máximo de tokens de saída

Defina maxOutputTokens para limitar o número de tokens gerados na resposta. Um token tem cerca de quatro caracteres, então 100 tokens correspondem a cerca de 60 a 80 palavras. Defina um valor baixo para limitar o comprimento da resposta.

Sequências de paradas

Defina strings em stopSequences para informar ao modelo que ele deve parar de gerar texto se uma das strings for encontrada na resposta. Se uma string aparecer várias vezes na resposta, a resposta será truncada quando a string for encontrada pela primeira vez. As strings diferenciam maiúsculas de minúsculas.

Parâmetros de penalização de token

Penalidade de frequência

Valores positivos penalizam tokens que aparecem repetidamente no texto gerado, diminuindo a probabilidade de repetir conteúdo. O valor mínimo é -2.0. O valor máximo é até 2.0, mas não inclui. Veja mais informações em frequencyPenalty.

Penalidade de presença

Valores positivos penalizam tokens que já aparecem no texto gerado, aumentando a probabilidade de gerar conteúdo mais diversificado. O valor mínimo é -2.0. O valor máximo é até 2.0, mas não inclui. Veja mais informações em presencePenalty.

Parâmetros avançados

Use esses parâmetros para retornar mais informações sobre os tokens na resposta ou para controlar a variabilidade dela.

Registrar as probabilidades dos tokens de saída

Retorna as probabilidades de registro dos principais tokens candidatos em cada etapa de geração. O token escolhido pelo modelo pode não ser o mesmo que o principal candidato em cada etapa. Especifique o número de candidatos a serem retornados usando um valor inteiro no intervalo de 1 a 5. Para mais informações, consulte logprobs. Você também precisa definir o parâmetro responseLogprobs como true para usar esse recurso.

O parâmetro responseLogprobs retorna as probabilidades de registro dos tokens que foram escolhidos pelo modelo em cada etapa.

Semente

Quando a semente é fixada em um valor específico, o modelo se esforça para fornecer a mesma resposta para solicitações repetidas. A saída determinista não é garantida. Além disso, mudar as configurações do modelo ou do parâmetro, como a temperatura, pode causar variações na resposta, mesmo quando você usa o mesmo valor de semente. Por padrão, um valor de semente aleatório é usado. Para ver mais informações, consulte seed.