Visão geral dos modelos de linguagem

É possível acessar, ajustar e implantar os modelos de linguagem de IA generativa do Google usando as APIs Vertex AI PaLM e Vertex AI Codey. Use os modelos de linguagem para executar vários fluxos de trabalho da Vertex AI, como usar as APIs para interagir com os modelos e implantá-los em um notebook do Jupyter. Também é possível personalizar os modelos de idioma para seu caso de uso específico ajustando o modelo. Nesta página, você encontra uma visão geral dos modelos de linguagem disponíveis, as APIs usadas para interagir com os modelos e maneiras de personalizar os comportamentos.

Esquema de nomenclatura do modelo

Os nomes de modelos de base têm dois componentes: caso de uso e tamanho do modelo. A convenção de nomenclatura está no formato <use case>-<model size>. Por exemplo, text-bison representa o modelo de texto Bison.

Os tamanhos do modelo são:

  • Unicorn: o maior modelo da família PaLM. Os modelos de unicórnio se destacam em tarefas complexas, como codificação e cadeia de pensamento (CoT), devido ao amplo conhecimento incorporado a eles e aos recursos de raciocínio dele.
  • Bison: o modelo PaLM de melhor valor que processa uma ampla variedade de tarefas de linguagem, como classificação e resumo. Ele é otimizado para precisão e latência a um custo razoável. As interfaces de texto, chat, código e chat de código simplificam a implantação e a integração do aplicativo.
  • Gecko: modelo menor para tarefas simples.

Você pode usar a versão estável ou mais recente de um modelo. Para mais informações, consulte Versões e ciclo de vida do modelo.

API PaLM da Vertex AI

A API Vertex AI PaLM dá acesso à família de modelos PaLM 2, que são compatíveis com a geração de texto, embeddings e códigos de linguagem natural (recomendamos usar as APIs Vertex AI Codey para geração de códigos). O PaLM 2 é a segunda geração do modelo de linguagem do Pathways desenvolvido pelo Google Labs. Ao usar a API PaLM da Vertex AI, é possível aproveitar as ferramentas de MLOps, a segurança, a segurança, a privacidade e a escalonabilidade de nível empresarial que a Vertex AI oferece.

A API Vertex AI PaLM expõe modelos do PaLM 2 usando endpoints do editor global exclusivos para cada projeto do Google Cloud. Veja a seguir um exemplo de endpoint de modelo de editor:

https://us-central1-aiplatform.googleapis.com/v1/projects/your_project_id/locations/us-central1/publishers/google/models/text-bison:predict

A API Vertex AI PaLM tem endpoints do editor para os seguintes modelos do PaLM 2:

  • text-bison: otimizado para executar tarefas de linguagem natural, como classificação, resumo, extração, criação de conteúdo e ideia.
  • chat-bison: otimizado para chat de várias rodadas, em que o modelo monitora mensagens anteriores no chat e as usa como contexto para gerar novas respostas.
  • textembedding-gecko: gera incorporações de texto para um determinado texto. É possível usar embeddings para tarefas como pesquisa semântica, recomendação, classificação e detecção de outliers.

Para saber mais sobre esses modelos, consulte Modelos disponíveis.

APIs do Vertex AI Codey

As APIs Vertex AI Codey são otimizadas para oferecer compatibilidade com a geração, o chat e a conclusão de código para várias linguagens de programação. As APIs Vertex AI Codey são baseadas na família de modelos PaLM 2. Para mais informações, consulte Visão geral dos modelos de código.

Design de comandos

Para interagir com modelos básicos, como o PaLM 2, você envia instruções de linguagem natural, também chamadas de prompts, que informam ao modelo o que você quer que ele gere. No entanto, os LLMs podem se comportar de forma imprevisível. O design rápido é um processo iterativo de tentativa e erro que exige tempo e prática para ser proficiente. Para saber mais sobre as estratégias gerais de design de prompts, consulte Introdução ao design de prompts. Para orientações específicas sobre a criação de comandos de texto em uma tarefa, consulte Criar comandos em texto.

Ajuste do modelo

Se você precisar personalizar modelos do PaLM 2 para um caso de uso específico, ajuste-os usando um conjunto de dados de exemplos de entrada e saída. Os modelos ajustados são implantados automaticamente em um novo endpoint no projeto para atender às solicitações. Para saber mais sobre o ajuste de modelos, consulte Ajustar modelos de base.

A seguir