Codey para preenchimento de código (code-gecko
) é o nome do modelo que oferece suporte ao preenchimento de código. É um
modelo de fundação que gera código com base no código que está sendo escrito. O Codey para preenchimento de código
conclui o código que foi digitado recentemente por um usuário. O Codey para preenchimento de código é compatível
com a API de geração de código. As APIs do Codey estão na família de APIs do PaLM.
Para saber mais sobre como criar comandos para a conclusão do código, consulte Criar comandos para a conclusão do códigos.
Para explorar esse modelo no console, consulte o card de modelo Codey for Code Completion no Model Garden.
Acessar o Model Garden
Casos de uso
Alguns casos de uso comuns para o preenchimento de código são:
Escreva o código mais rapidamente: use o modelo
code-gecko
para escrever o código mais rapidamente, aproveitando o código sugerido para você.Minimize bugs no código: use as sugestões de código que você sabe que estão sintaticamente corretas para evitar erros. A conclusão de código ajuda a minimizar o risco de introduzir bugs acidentalmente que podem ocorrer ao escrever códigos.
Solicitação HTTP
POST https://us-central1-googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-gecko:predict
Versões do modelo
Para usar a versão de modelo mais recente,
especifique o nome do modelo sem um número de versão. Por exemplo, code-gecko
.
Para usar uma versão de modelo estável, especifique o número da versão de modelo, por exemplo, code-gecko@001
. Cada versão estável está disponível por seis meses após a data de lançamento da versão estável subsequente.
A tabela a seguir contém as versões de modelo estável disponíveis:
Modelo code-gecko | Data da versão | Data de desativação |
---|---|---|
code-gecko@002 | 6 de dezembro de 2023 | 9 de outubro de 2024 |
code-gecko@001 | 29 de junho de 2023 | 6 de julho de 2024 |
Para mais informações, consulte Versões e ciclo de vida do modelo.
Corpo da solicitação
{
"instances":[
{
"prefix": string,
"suffix": string
}
],
"parameters": {
"temperature": number,
"maxOutputTokens": integer,
"candidateCount": integer,
"stopSequences": [ string ],
"logprobs": integer,
"presencePenalty": float,
"frequencyPenalty": float,
"echo": boolean,
"seed": integer
}
}
Confira a seguir os parâmetros do modelo de chat de código chamado code-gecko
. O modelo code-gecko
é um dos modelos do Codey. Use esses
parâmetros para otimizar a solicitação de conclusão de código. Para mais
informações, consulte Visão geral dos modelos
de código e Criar prompts para
preenchimento de código.
Parâmetro | Descrição | Valores aceitáveis |
---|---|---|
(obrigatório) |
Para modelos de código, prefix representa o início de um código de programação significativo ou um prompt de linguagem natural que descreve o código a ser gerado. O modelo tenta preencher o código entre prefix e suffix .
|
Uma string de texto válida |
(opcional) |
Para a conclusão de código, suffix representa o final de um
código de programação significativo. O modelo tenta preencher o código entre
prefix e suffix .
|
Uma string de texto válida |
|
A temperatura é usada para amostragem durante a geração da resposta. A temperatura controla o grau de aleatoriedade na seleção do token. Temperaturas mais baixas são boas para solicitações que exigem uma
resposta menos aberta ou criativa, enquanto as mais altas podem levar a resultados mais diversos ou
criativos. Uma temperatura de 0 significa que os tokens de maior probabilidade são sempre
selecionados. Nesse caso, as respostas para uma determinada solicitação são, na maioria, deterministas, mas uma pequena quantidade de
variação ainda é possível.
|
|
|
Número máximo de tokens que podem ser gerados na resposta. Um token tem cerca de quatro caracteres. 100 tokens correspondem a cerca de 60 a 80 palavras.
Especifique um valor mais baixo para respostas mais curtas e um valor mais alto para respostas potencialmente mais longas. |
|
(opcional) |
O número de variações de resposta a serem retornadas. |
(opcional) |
(opcional) |
Especifica uma lista de strings que instrui o modelo a parar de gerar texto se uma das strings for encontrada na resposta. Se uma string aparecer várias vezes na resposta, a resposta truncará quando for encontrada pela primeira vez.
As strings diferenciam maiúsculas de minúsculas.
Por exemplo, se a resposta a seguir for retornada quando stopSequences não for especificado:
public
static string reverse(string myString)
A resposta retornada com stopSequences definida como ["Str",
"reverse"] é:
public static string
|
Uma lista de strings |
(opcional) |
Retorna os principais tokens logprobs candidatos com as respectivas probabilidades de registro
em cada etapa de geração. Os tokens escolhidos e as probabilidades de registro deles em cada etapa são sempre retornados. O token escolhido pode ou não estar entre os principais candidatos
de logprobs .
|
|
(opcional) |
Valores positivos penalizam tokens que aparecem repetidamente no texto gerado, diminuindo a probabilidade de repetir conteúdo. Os valores aceitáveis são: -2.0 , 2.0 .
|
|
(opcional) |
Valores positivos penalizam tokens que já aparecem no texto gerado, aumentando a probabilidade de gerar conteúdo mais diversificado. Os valores aceitáveis são: -2.0 , 2.0 .
|
|
(opcional) |
Se verdadeiro, o comando será repetido no texto gerado. |
|
|
O decodificador gera ruído aleatório com um gerador de número pseudoaleatório. O ruído de temperatura * é adicionado
aos logits antes da amostragem. O gerador de número pseudoaleatório (prng) usa uma seed como entrada e
gera a mesma saída com a mesma seed.
Se a seed não for definida, a seed usada no decodificador não será determinista. Portanto, o ruído aleatório gerado não será determinista. Se a seed for definida, o ruído aleatório gerado será determinista. |
|
Exemplo de solicitação
REST
Para testar um prompt de texto usando a API Vertex AI, envie uma solicitação POST para o endpoint do modelo do editor.
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- PROJECT_ID: o ID do projeto. Para outros campos, consulte a tabela Corpo da solicitação.
Método HTTP e URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-gecko:predict
Corpo JSON da solicitação:
{ "instances": [ { "prefix": "PREFIX", "suffix": "SUFFIX"} ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-gecko:predict"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-gecko:predict" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante à amostra de resposta.
Python
Para saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python.
Node.js
Antes de testar essa amostra, siga as instruções de configuração para Node.js Guia de início rápido da Vertex AI: como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Node.js.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Java
Antes de testar essa amostra, siga as instruções de configuração para Java Guia de início rápido da Vertex AI: como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Corpo da resposta
{
"predictions": [
{
"content": string,
"citationMetadata": {
"citations": [
{
"startIndex": integer,
"endIndex": integer,
"url": string,
"title": string,
"license": string,
"publicationDate": string
}
]
},
"logprobs": {
"tokenLogProbs": [ float ],
"tokens": [ string ],
"topLogProbs": [ { map<string, float> } ]
},
"safetyAttributes":{
"categories": [ string ],
"blocked": boolean,
"scores": [ float ],
"errors": [ int ]
},
"score": float
}
]
}
Elemento de resposta | Descrição |
---|---|
blocked |
Uma flag boolean associada a um atributo de segurança que indica se a entrada ou a saída do modelo foi bloqueada. Se blocked for true , o campo errors na resposta conterá um ou mais códigos de erro. Se blocked for false , a resposta não conterá o campo errors .
|
categories |
Uma lista dos nomes das categorias de atributo de segurança associadas ao conteúdo gerado. A ordem das pontuações no parâmetro scores corresponde à ordem das categorias. Por exemplo, a primeira pontuação no parâmetro scores indica a probabilidade de a resposta violar a primeira categoria na lista categories .
|
citationMetadata |
Um elemento que contém uma matriz de citações. |
citations |
Uma matriz de citações. Cada citação contém os metadados correspondentes. |
content |
O resultado gerado pelo modelo usando o texto de entrada. |
endIndex |
Um número inteiro que especifica onde uma citação termina em content .
|
errors |
Uma matriz de códigos de erro. O campo de resposta errors está incluso na resposta somente quando o campo blocked nela é true . Para saber mais sobre como entender códigos de erro, consulte Erros de segurança.
|
license |
A licença associada a uma citação. |
publicationDate |
A data em que uma citação foi publicada. Os formatos válidos são YYYY , YYYY-MM e YYYY-MM-DD .
|
score |
Um valor float menor que zero. Quanto maior o valor de score , maior a confiança do modelo na resposta.
|
startIndex |
Um número inteiro que especifica onde começa uma citação no conteúdo. |
title |
O título de uma fonte de citação. Alguns exemplos de títulos de fontes são os de artigos de notícias ou livros. |
url |
O URL de uma fonte de citação. Exemplos de uma fonte de URL podem ser um site de notícias ou um repositório do GitHub. |
tokens |
Os tokens de amostra. |
tokenLogProbs |
Probabilidades de registro dos tokens de amostra. |
topLogProbs |
Os tokens candidatos mais prováveis e as probabilidades de registro deles em cada etapa. |
logprobs |
Resultados do parâmetro `logprobs`. Mapeamento de 1-1 para "candidatos". |
Exemplo de resposta
{
"predictions": [
{
"safetyAttributes": {
"blocked": false,
"categories": [],
"scores": []
},
"content": " reverses a string",
"citationMetadata": {
"citations": []
}
},
"score": -1.1161688566207886
]
}
Resposta de stream de modelos de IA generativa
Os parâmetros são os mesmos para streaming e solicitações sem streaming para as APIs.
Para conferir exemplos de solicitações de código e respostas usando a API REST, consulte Exemplos usando a API REST de streaming.
Para conferir exemplos de código de solicitações e respostas usando o SDK da Vertex AI para Python, consulte Exemplos que usam o SDK da Vertex AI para Python para streaming.