IA generativa

Documentação e recursos para criar e implementar aplicações de IA generativa com Google Cloud ferramentas e produtos.

  • Aceda ao Gemini 2.0 Flash Thinking
  • Utilização mensal gratuita de produtos populares, incluindo APIs de IA e o BigQuery
  • Sem cobranças automáticas nem compromissos

Continue a explorar com mais de 20 produtos sempre gratuitos

Aceda a mais de 20 produtos gratuitos para exemplos de utilização comuns, incluindo APIs de IA, VMs, armazéns de dados e muito mais.

Saiba como criar aplicações de IA generativa

IA generativa na Vertex AI

Aceda aos grandes modelos de IA generativa da Google para os poder testar, ajustar e implementar para utilização nas suas aplicações com tecnologia de IA.

Início rápido do Gemini

Veja como é enviar pedidos para a API Gemini através da plataforma de IA/ML da Google Cloud, o Vertex AI.

Orquestração de IA/ML no GKE

Tire partido do poder do GKE como uma plataforma de IA/AA personalizável com alto desempenho, serviço e preparação económicos com uma escala líder da indústria e opções de infraestrutura flexíveis.

Quando usar a IA generativa

Identifique se a IA generativa, a IA tradicional ou uma combinação de ambas pode adequar-se ao exemplo de utilização da sua empresa.

Desenvolva uma aplicação de IA generativa

Saiba como abordar os desafios em cada fase do desenvolvimento de uma aplicação de IA generativa.

Exemplos de código e aplicações de exemplo

Veja exemplos de código para exemplos de utilização populares e implemente exemplos de aplicações de IA generativa seguras, eficientes, resilientes, de alto desempenho e rentáveis.

Glossário de IA generativa

Saiba mais sobre termos específicos associados à IA generativa.

Ferramentas de IA gen

Lista de ferramentas de IA generativa, incluindo o Vertex AI Studio, o Colab Enterprise/Notebooks e o Workbench, apresentados na Cloud Console, e SDKs/APIs apresentados como um item separado.

Fluxo de desenvolvimento da IA gen

Diagrama do fluxo de desenvolvimento de IA generativa com seis fases: seleção de modelos (incluindo o Model Garden), engenharia de comandos (incluindo a galeria de comandos, o Vertex AI Studio, a comparação de comandos e a otimização de comandos), o ajuste (incluindo a preparação e o ajuste), a otimização (incluindo a destilação), a implementação (incluindo o Model Registry, a previsão online e a previsão em lote) e a monitorização. As fases de seleção de modelos, engenharia de comandos, ajuste e otimização fazem parte de um subciclo de repetição etiquetado como Avaliação.

Exploração e alojamento de modelos

Google Cloud oferece um conjunto de modelos de base de vanguarda através do Vertex AI, incluindo o Gemini. Também pode implementar um modelo de terceiros no Model Garden do Vertex AI ou alojá-lo de forma autónoma no GKE ou no Compute Engine.

Modelos Google na Vertex AI (Gemini e Imagen)

Descubra, teste, personalize e implemente modelos e recursos da Google a partir de uma biblioteca de modelos de ML.

Outros modelos no Vertex AI Model Garden

Descubra, teste, personalize e implemente modelos e recursos de software livre selecionados a partir de uma biblioteca de modelos de ML.

Modelos de geração de texto através do HuggingFace

Saiba como implementar modelos de geração de texto do HuggingFace no Vertex AI ou no Google Kubernetes Engine (GKE).

GPUs no Compute Engine

Anexe GPUs a instâncias de VM para acelerar as cargas de trabalho de IA generativa no Compute Engine.

Design e engenharia de comandos

O design de comandos é o processo de criação de pares de comandos e respostas para dar aos modelos de linguagem contexto e instruções adicionais. Depois de criar comandos, envia-os para o modelo como um conjunto de dados de comandos para pré-treino. Quando um modelo apresenta previsões, responde com as suas instruções incorporadas.

Vertex AI Studio

Conceba, teste e personalize os seus comandos enviados para os grandes modelos de linguagem (GMLs) Gemini e PaLM 2 da Google.

Vista geral das estratégias de comandos

Conheça o fluxo de trabalho de engenharia de comandos e as estratégias comuns que pode usar para afetar as respostas do modelo.
Veja exemplos de comandos e respostas para exemplos de utilização específicos.

Fundamentação e RAG

A fundamentação associa os modelos de IA a origens de dados para melhorar a precisão das respostas e reduzir as alucinações. A RAG, uma técnica de fundamentação comum, pesquisa informações relevantes e adiciona-as ao comando do modelo, garantindo que o resultado se baseia em factos e informações atualizadas.

Fundamentação do Vertex AI

Pode fundamentar os modelos do Vertex AI com a Pesquisa Google ou com os seus próprios dados armazenados no Vertex AI Search.
Use a verificação com a Pesquisa Google para associar o modelo aos conhecimentos atualizados disponíveis na Internet.

Incorporações de vetores no AlloyDB

Use o AlloyDB para gerar e armazenar incorporações de vetores e, em seguida, indexar e consultar as incorporações através da extensão pgvector.

Cloud SQL e pgvector

Armazene incorporações vetoriais no Postgres SQL e, em seguida, indexe e consulte as incorporações através da extensão pgvector.

Integrar dados do BigQuery na sua aplicação LangChain

Use o LangChain para extrair dados do BigQuery e enriquecer e fundamentar as respostas do seu modelo.

Incorporações de vetores no Firestore

Crie incorporações vetoriais a partir dos seus dados do Firestore e, em seguida, indexe e consulte as incorporações.

Incorporações de vetores no Memorystore (Redis)

Use o LangChain para extrair dados do Memorystore e enriquecer e fundamentar as respostas do seu modelo.

Agentes e chamadas de funções

Os agentes facilitam a conceção e a integração de uma interface do utilizador conversacional na sua app para dispositivos móveis, enquanto a chamada de funções expande as capacidades de um modelo.

Aplicações de IA

Tire partido dos modelos de base, dos conhecimentos especializados em pesquisa e das tecnologias de IA conversacional da Google para aplicações de IA generativa de nível empresarial.

Chamada de funções da Vertex AI

Adicione a Chamada de funções ao seu modelo para ativar ações como reservar um lugar com base nas informações do calendário extraídas.

Personalização e preparação de modelos

As tarefas especializadas, como preparar um modelo de linguagem numa terminologia específica, podem exigir mais preparação do que a que pode fazer apenas com a conceção de comandos ou a fundamentação. Nesse cenário, pode usar o ajuste de modelos para melhorar o desempenho ou preparar o seu próprio modelo.

Avalie modelos na Vertex AI

Avalie o desempenho dos modelos de base e dos seus modelos de IA generativa otimizados no Vertex AI.

Ajuste os modelos da Vertex AI

Os modelos de base de uso geral podem beneficiar da otimização para melhorar o respetivo desempenho em tarefas específicas.

TPU do Google Cloud

As TPUs são ASICs desenvolvidos pela Google usados para acelerar cargas de trabalho de aprendizagem automática, como a preparação de um GML.

Começar a criar

O LangChain é um framework de código aberto para apps de IA generativa que lhe permite criar contexto nos seus comandos e tomar medidas com base na resposta do modelo.
Veja exemplos de código para exemplos de utilização populares e implemente exemplos de aplicações de IA generativa que sejam seguras, eficientes, resilientes, de elevado desempenho e rentáveis.