O AutoML Text foi descontinuado. Esta página oferece comparações entre o AutoML Text e o Gemini para ajudar os utilizadores do AutoML Text a compreender como usar o Gemini.
Verifique as tabelas aplicáveis ao seu exemplo de utilização e reveja as alterações que provavelmente vão afetar o seu fluxo de trabalho.
Utilização geral
Estas diferenças aplicam-se a todos os utilizadores do Gemini.
Operação | Texto do AutoML | Gemini |
---|---|---|
Formatos de dados de preparação | Pode usar ficheiros CSV ou JSON Lines, exceto para a extração de entidades de texto, para
incluir fragmentos de texto inline ou para fazer referência a documentos do tipo
TXT . A extração de entidades suporta apenas ficheiros JSON Lines. |
Só pode usar ficheiros JSON Line. Cada linha no ficheiro deve representar um exemplo de preparação único. Pode transferir um conjunto de dados de amostra para o ajuste fino dos modelos Gemini. Os ficheiros devem ser armazenados no Cloud Storage. |
Anotação do conjunto de dados |
As anotações são agrupadas como um objeto AnnotationSet .
Pode usar diferentes conjuntos de anotações com o mesmo conjunto de dados.
|
As anotações de conjuntos de dados não são aplicáveis com o Gemini. |
Importação de conjuntos de dados | Especifica os valores de utilização de ML numa coluna opcional para CSV, na mesma linha
que os dados; ou como uma etiqueta em linhas JSON no mesmo objeto JSON que os dados. Se não especificar valores de utilização da aprendizagem automática, os seus dados são divididos automaticamente para preparação, testes e validação. Para a análise de sentimentos, os ficheiros CSV têm de incluir o valor máximo de sentimentos na última coluna de cada linha. |
Tem de ter dois ficheiros JSONL separados, um para a preparação e outro para a validação. O ficheiro de validação é opcional. O ficheiro de validação deve ter entre 10 e 256 exemplos. |
Custos de armazenamento | Quando cria um conjunto de dados, os seus dados são carregados no Cloud Storage no seu projeto. Este armazenamento é-lhe cobrado. Saiba mais. | Quando cria um conjunto de dados, os seus dados são carregados no Cloud Storage no seu projeto. Este armazenamento é-lhe cobrado. Saiba mais |
Etiquetagem de dados |
Fornece instruções de etiquetagem através de um URL. As anotações fazem parte do objeto Dataset e não podem ser manipuladas através da API.
|
A etiquetagem de dados não é aplicável com o Gemini. |
Implementação de modelos |
Cria um objeto Endpoint, que fornece recursos para
apresentar inferências online. Em seguida, implementa o modelo no ponto final.
Para pedir inferências, chama o método
predict() .
|
Após o ajuste fino do Gemini, o modelo é armazenado no
Vertex AI Model Registry,
e é criado automaticamente um ponto final. As inferências online
do modelo otimizado
podem
ser pedidas através do SDK do Python, da API REST ou da consola. Primeiro,
pede inferências obtendo o ponto final otimizado e, em seguida, usando o
método generate_content() .
|
Usar o número ou o ID do projeto |
O project-number e o project-id funcionam no Vertex AI.
|
O Gemini usa o project-id . |
Classificações de confiança | O texto do AutoML suporta pontuações de confiança. | O Gemini não suporta classificações de confiança. |
Utilizadores da API
Para ver informações detalhadas sobre a API, consulte a documentação de referência da API Vertex AI Generative AI Tuning.
Operação ou entidade | Texto do AutoML | Gemini |
---|---|---|
Criação de modelos |
Cria um objeto TrainingPipeline , que devolve um trabalho de
treino.
|
Cria um trabalho de ajuste fino supervisionado que devolve o trabalho de ajuste. |
Usar a biblioteca de cliente | Existem diferentes clientes API para cada recurso da API. | Pode criar uma tarefa de ajuste fino supervisionado para o Gemini através do SDK Python, da API REST ou da consola. |
Pedir inferências |
Pode pedir inferências chamando o método
predict()
no recurso Endpoint.
|
Pede inferências primeiro obtendo o ponto final otimizado e, em seguida, usando o método generate_content .
|
Ponto final de inferência online | No comando seguinte, substitua REGION pela região em que o seu modelo de inferência se encontra.REGION-aiplatform.googleapis.com .
Por exemplo:us-central1-aiplatform.googleapis.com |
No comando seguinte, substitua TUNING_JOB_REGION pela região onde
a tarefa de otimização é executada.TUNING_JOB_REGION-aiplatform.googleapis.com .
Por exemplo:us-central1-aiplatform.googleapis.com |
Ficheiros de esquema e de definição | Alguns campos de pedidos e respostas são definidos em ficheiros de esquema e de definição. Os formatos de dados são definidos através de ficheiros de esquemas predefinidos. Isto permite flexibilidade para a API e os formatos de dados. | O corpo do pedido, os parâmetros do modelo e o corpo da resposta são iguais aos dos modelos Gemini não otimizados. Veja pedidos de exemplo. |
Nome do anfitrião | aiplatform.googleapis.com |
aiplatform.googleapis.com |
Nome do anfitrião regional | Obrigatório. Por exemplo:us-central1-aiplatform.googleapis.com |
Obrigatório. Por exemplo:us-central1-aiplatform.googleapis.com |
O que se segue?
Para começar a usar a otimização, consulte o artigo Otimização de modelos para modelos de texto do Gemini