Escolha modelos e infraestrutura para seu aplicativo de IA generativa

Saiba quais produtos, frameworks e ferramentas são a melhor opção para criar seu aplicativo de IA generativa. A figura a seguir mostra componentes comuns em um aplicativo de IA generativa hospedado na nuvem.
Diagrama de Venn mostrando os componentes de um sistema de IA generativa Diagrama de Venn mostrando os componentes de um sistema de IA generativa
  1. Hospedagem de aplicativos:computação para hospedar seu aplicativo. Seu aplicativo pode usar bibliotecas de cliente e SDKs do Google Cloud para se comunicar com diferentes produtos do Cloud.

  2. Hospedagem de modelos:hospedagem escalonável e segura para um modelo generativo.

  3. Modelo:modelo generativo para texto, chat, imagens, código, embeddings e multimodal.

  4. Solução de embasamento: fixe a saída do modelo em fontes de informações verificáveis e atualizadas.

  5. Banco de dados: armazena os dados do seu aplicativo. É possível reutilizar o banco de dados como solução de embasamento: aumente os comandos com a consulta SQL e/ou armazene os dados como embeddings vetoriais usando uma extensão como pgvector.

  6. Armazenamento:armazene arquivos como imagens, vídeos ou front-ends estáticos da Web. Também é possível usar o Storage para os dados brutos de embasamento (por exemplo, PDFs) que serão convertidos posteriormente em embeddings e armazenados em um banco de dados de vetores.

As seções abaixo mostram cada um desses componentes para ajudar você a escolher quais produtos do Google Cloud testar.

Infraestrutura de hospedagem de aplicativos

Escolha um produto para hospedar e disponibilizar a carga de trabalho do seu aplicativo, que chama o modelo generativo.

Quer uma infraestrutura gerenciada sem servidor?

fechar
verificar
Cloud Run
fechar

Seu aplicativo pode ser conteinerizado?

fechar
verificar
Kubernetes Engine
fechar

Infraestrutura de hospedagem de modelos

O Google Cloud oferece várias maneiras de hospedar um modelo generativo, desde a plataforma principal da Vertex AI até a hospedagem personalizável e portátil no Google Kubernetes Engine.

Usar o Gemini e precisar de recursos empresariais, como escalonamento, segurança, privacidade de dados e observabilidade

verificar
fechar
API Gemini Developer
verificar

Quer infraestrutura totalmente gerenciada com ferramentas e APIs de IA generativa de primeira linha?

fechar
verificar
Vertex AI
fechar

Seu modelo exige um kernel especializado, um SO legado ou tem termos de licenciamento especiais?

fechar
verificar
Compute Engine
fechar

Modelo

O Google Cloud oferece um conjunto de modelos de fundação de última geração pela Vertex AI , incluindo o Gemini. Também é possível implantar um modelo de terceiros no Model Garden da Vertex AI ou na auto-hospedagem no GKE , no Cloud Run ou no Compute Engine.

Como gerar código?

fechar
verificar
Codey (Vertex AI)
fechar

Como gerar imagens?

fechar
verificar
Imagen (Vertex AI)
fechar

Você está gerando embeddings para pesquisa, classificação ou agrupamento?

fechar
verificar
text-embedding (Vertex AI)
fechar

Ok, você quer gerar texto. Você quer incluir imagens ou vídeos nos comandos de texto? (multimodal)

fechar
verificar
Gemini (Vertex AI)
fechar

Ok, apenas comandos de texto. Quer aproveitar o modelo principal mais eficiente do Google?

fechar
verificar
Gemini (Vertex AI)
fechar

Implante um modelo de código aberto em: Vertex AI (Model Garden) GKE (HuggingFace)

Altitude de referência

Para garantir respostas de modelo informadas e precisas, baseie seu aplicativo de IA generativa com dados em tempo real. Isso é chamado de geração aumentada de recuperação (RAG).

É possível implementar o embasamento com seus próprios dados em um banco de dados de vetores, que é um formato ideal para operações como a pesquisa por similaridade. O Google Cloud oferece várias soluções de banco de dados de vetores para diferentes casos de uso.

Observação:também é possível embasar com bancos de dados tradicionais (não vetoriais). Basta consultar um banco de dados, como o Cloud SQL ou o Firestore, e usar o resultado no comando do modelo.

Quer uma solução simples, sem acesso às incorporações subjacentes?

fechar
verificar
Pesquisa e conversa da Vertex AI
fechar

Você precisa de pesquisa de vetor de baixa latência, veiculação em grande escala ou quer usar um DB de vetor especializado?

fechar
verificar
Pesquisa de vetor da Vertex AI
fechar

Seus dados são acessados de forma programática (OLTP)? Já está usando um banco de dados SQL?

fechar
verificar

Quer usar os modelos de IA do Google diretamente no seu banco de dados? Requer baixa latência?

verificar
fechar
fechar

Tem um grande conjunto de dados analíticos (OLAP)? Requer processamento em lote e acesso frequente à tabela SQL por humanos ou scripts (ciência de dados)?

verificar
BigQuery

Embasamento com APIs

Em vez (ou além de) usar seus próprios dados para embasamento, muitos serviços on-line oferecem APIs que podem ser usadas para recuperar dados de embasamento e ampliar o comando do modelo.
Crie, implante e gerencie extensões que conectam modelos de linguagem grandes às APIs de sistemas externos.
Se você estiver usando modelos hospedados na Vertex AI, será possível embasar as respostas de modelo usando a Vertex AI para Pesquisa, a Pesquisa Google ou texto inline/infile.

Comece a criar

O LangChain é um framework de código aberto para apps de IA generativa que permite criar contexto nos seus comandos e agir com base na resposta do modelo.

Conheça exemplos de código selecionados para casos de uso conhecidos e implante exemplos de aplicativos de IA generativa que são seguros, eficientes, resilientes, de alto desempenho e econômicos.