O Google Cloud oferece diversos produtos e ferramentas para o ciclo de vida completo de criação de aplicativos de IA generativa.

Saiba como criar apps de IA generativa

IA generativa na Vertex AI

Acesse modelos grandes de IA generativa do Google para testá-los, ajustá-los e implantá-los para uso em aplicativos com tecnologia de IA.

Guia de início rápido do Gemini

Saiba como enviar solicitações para a API Gemini pela plataforma de IA/ML do Google Cloud, a Vertex AI.

Escolher a infraestrutura para seu aplicativo de IA generativa

Escolha os melhores produtos e ferramentas para seu caso de uso e acesse a documentação necessária para começar.

Hospedagem e análise de modelos

O Google Cloud oferece um conjunto de modelos de fundação de última geração pela Vertex AI, incluindo o Gemini. Também é possível implantar um modelo de terceiros no Model Garden da Vertex AI ou na auto-hospedagem no GKE ou no Compute Engine.

Modelos do Google na Vertex AI (Gemini, Imagen)

Descubra, teste, personalize e implante modelos e recursos do Google de uma biblioteca de modelos de ML.

Outros modelos no Model Garden da Vertex AI

Descubra, teste, personalize e implante modelos e recursos de OSS selecionados de uma biblioteca de modelos de ML.

Modelos de geração de texto pelo HuggingFace

Saiba como implantar modelos de geração de texto do HuggingFace na Vertex AI ou no Google Kubernetes Engine (GKE).

Design e engenharia de comandos

O design de comandos é o processo de criação de pares de comandos e respostas para dar mais contexto e instruções aos modelos de linguagem. Depois de criar comandos, alimente-os ao modelo como um conjunto de dados de comandos para pré-treinamento. Quando um modelo disponibiliza previsões, ele responde com as instruções integradas.

Vertex AI Studio

Crie, teste e personalize os comandos enviados aos modelos de linguagem grandes (LLM) Gemini e PaLM 2 do Google.

Informações gerais das estratégias de comandos

Aprenda sobre o fluxo de trabalho de engenharia de comandos e as estratégias comuns que podem ser usadas para afetar as respostas do modelo.
Confira exemplos de comandos e respostas para casos de uso específicos.

Embasamento e RAG

O embasamento conecta modelos de IA a fontes de dados para melhorar a precisão das respostas e reduzir as alucinações. A RAG, uma técnica de embasamento comum, procura informações relevantes e as adiciona ao prompt do modelo, garantindo que a saída seja baseada em fatos e informações atualizadas.

Embasamento da Vertex AI

É possível embasar modelos da Vertex AI com a Pesquisa Google ou com seus próprios dados armazenados na Vertex AI para Pesquisa.
Use o Embasamento com a Pesquisa Google para conectar o modelo ao conhecimento atualizado disponível na Internet.

Embeddings vetoriais no AlloyDB

Use o AlloyDB para gerar e armazenar embeddings de vetores e, em seguida, indexe e consulte os embeddings usando a extensão pgvector.

Agentes e chamada de função

Os agentes facilitam o design e a integração de uma interface do usuário de conversação ao app para dispositivos móveis, enquanto a chamada de função amplia os recursos de um modelo.

Vertex AI Agent Builder

Aproveite os modelos de fundação, a experiência em pesquisa e as tecnologias de IA de conversação do Google para criar apps de IA generativa de nível empresarial.

Chamada de função da Vertex AI

Adicione a chamada de função ao modelo para ativar ações como fazer uma reserva com base nas informações extraídas da agenda.

Personalização e treinamento de modelos

Tarefas especializadas, como treinar um modelo de linguagem com terminologia específica, podem exigir mais treinamento do que é possível somente com o design do comando ou embasamento. Nesse cenário, é possível usar o ajuste de modelos para melhorar o desempenho ou treinar seu próprio modelo.

Avaliar modelos na Vertex AI

Avalie o desempenho dos modelos de fundação e dos modelos ajustados de IA generativa na Vertex AI.

Ajustar modelos da Vertex AI

Os modelos de fundação de uso geral podem se beneficiar do ajuste para melhorar o desempenho em tarefas específicas.

Cloud TPU

TPUs são ASICs desenvolvidos especialmente pelo Google para acelerar as cargas de trabalho de machine learning, como o treinamento de um LLM.

Comece a criar

O LangChain é um framework de código aberto para apps de IA generativa que permite criar contexto nos prompts e agir com base na resposta do modelo.
Conheça exemplos de código selecionados para casos de uso conhecidos e implante exemplos de apps de IA generativa que são seguros, eficientes, resilientes, de alto desempenho e econômicos.