O Google Cloud oferece diversos produtos e ferramentas para o ciclo de vida completo de criação de aplicativos de IA generativa.

Saiba como criar apps de IA generativa

IA generativa na Vertex AI

Acesse modelos grandes de IA generativa do Google para testá-los, ajustá-los e implantá-los para uso em aplicativos com tecnologia de IA.

Guia de início rápido do Gemini

Saiba como enviar solicitações para a API Gemini pela plataforma de IA/ML do Google Cloud, a Vertex AI.

Escolher a infraestrutura para seu aplicativo de IA generativa

Escolha os melhores produtos e ferramentas para seu caso de uso e acesse a documentação necessária para começar.

Quando usar a IA generativa

Identifique se a IA generativa, a IA tradicional ou uma combinação de ambas podem se adequar ao seu caso de uso de negócios.

Desenvolver um aplicativo de IA generativa

Saiba como enfrentar os desafios de cada fase do desenvolvimento de um aplicativo de IA generativa.

Exemplos de código e aplicativos

Conheça exemplos de código selecionados para casos de uso conhecidos e implante exemplos de apps de IA generativa que são seguros, eficientes, resilientes, de alto desempenho e econômicos.

Hospedagem e análise de modelos

O Google Cloud oferece um conjunto de modelos de fundação de última geração pela Vertex AI, incluindo o Gemini. Também é possível implantar um modelo de terceiros no Model Garden da Vertex AI ou na auto-hospedagem no GKE ou no Compute Engine.

Modelos do Google na Vertex AI (Gemini, Imagen)

Descubra, teste, personalize e implante modelos e recursos do Google de uma biblioteca de modelos de ML.

Outros modelos no Model Garden da Vertex AI

Descubra, teste, personalize e implante modelos e recursos de OSS selecionados de uma biblioteca de modelos de ML.

Modelos de geração de texto pelo HuggingFace

Saiba como implantar modelos de geração de texto do HuggingFace na Vertex AI ou no Google Kubernetes Engine (GKE).

Orquestração de IA/ML no GKE

O GKE orquestra cargas de trabalho de IA/ML de maneira eficiente, compatível com GPUs e TPUs para treinamento e disponibilização de IA generativa escalonável.

GPUs no Compute Engine

Anexe GPUs a instâncias de VM para acelerar cargas de trabalho de IA generativa no Compute Engine.

Design e engenharia de comandos

O design de comandos é o processo de criação de pares de comandos e respostas para dar mais contexto e instruções aos modelos de linguagem. Depois de criar comandos, alimente-os ao modelo como um conjunto de dados de comandos para pré-treinamento. Quando um modelo disponibiliza previsões, ele responde com as instruções integradas.

Vertex AI Studio

Crie, teste e personalize os comandos enviados aos modelos de linguagem grandes (LLM) Gemini e PaLM 2 do Google.

Informações gerais das estratégias de comandos

Aprenda sobre o fluxo de trabalho de engenharia de comandos e as estratégias comuns que podem ser usadas para afetar as respostas do modelo.
Confira exemplos de comandos e respostas para casos de uso específicos.

Embasamento e RAG

O embasamento conecta modelos de IA a fontes de dados para melhorar a precisão das respostas e reduzir as alucinações. A RAG, uma técnica de embasamento comum, procura informações relevantes e as adiciona ao prompt do modelo, garantindo que a saída seja baseada em fatos e informações atualizadas.

Embasamento da Vertex AI

É possível embasar modelos da Vertex AI com a Pesquisa Google ou com seus próprios dados armazenados na Vertex AI para Pesquisa.
Use o Embasamento com a Pesquisa Google para conectar o modelo ao conhecimento atualizado disponível na Internet.

Embeddings vetoriais no AlloyDB

Use o AlloyDB para gerar e armazenar embeddings de vetores e, em seguida, indexe e consulte os embeddings usando a extensão pgvector.

Cloud SQL e pgvector

Armazene embeddings de vetor no Postgres SQL e, em seguida, indexe e consulte os embeddings usando a extensão pgvector.

Como integrar dados do BigQuery ao seu aplicativo LangChain

Use o LangChain para extrair dados do BigQuery e enriquecer e embasar as respostas do modelo.

Embeddings vetoriais no Firestore

Crie embeddings de vetor com base nos dados do Firestore e, em seguida, indexe e consulte os embeddings.

Embeddings vetoriais no Memorystore (Redis)

Use o LangChain para extrair dados do Memorystore e enriquecer e embasar as respostas do modelo.

Agentes e chamada de função

Os agentes facilitam o design e a integração de uma interface do usuário de conversação ao app para dispositivos móveis, enquanto a chamada de função amplia os recursos de um modelo.

Vertex AI Agent Builder

Aproveite os modelos de fundação, a experiência em pesquisa e as tecnologias de IA de conversação do Google para criar apps de IA generativa de nível empresarial.

Chamada de função da Vertex AI

Adicione a chamada de função ao modelo para ativar ações como fazer uma reserva com base nas informações extraídas da agenda.

Personalização e treinamento de modelos

Tarefas especializadas, como treinar um modelo de linguagem com terminologia específica, podem exigir mais treinamento do que é possível somente com o design do comando ou embasamento. Nesse cenário, é possível usar o ajuste de modelos para melhorar o desempenho ou treinar seu próprio modelo.

Avaliar modelos na Vertex AI

Avalie o desempenho dos modelos de fundação e dos modelos ajustados de IA generativa na Vertex AI.

Ajustar modelos da Vertex AI

Os modelos de fundação de uso geral podem se beneficiar do ajuste para melhorar o desempenho em tarefas específicas.

Cloud TPU

TPUs são ASICs desenvolvidos especialmente pelo Google para acelerar as cargas de trabalho de machine learning, como o treinamento de um LLM.

Comece a criar

O LangChain é um framework de código aberto para apps de IA generativa que permite criar contexto nos prompts e agir com base na resposta do modelo.
Conheça exemplos de código selecionados para casos de uso conhecidos e implante exemplos de apps de IA generativa que são seguros, eficientes, resilientes, de alto desempenho e econômicos.