ícone de IA

Modelos de linguagem grandes (LLMs)

Modelos de linguagem grandes com a tecnologia de ponta da IA do Google

O Google Cloud traz inovações desenvolvidas e testadas pelo Google DeepMind para nossa plataforma de IA pronta para empresas. Assim, os clientes podem começar a usá-las para criar e oferecer recursos de IA generativa hoje mesmo — não amanhã. 

Novos clientes ganham US$ 300 em créditos para gastar naVertex AI.

Visão geral

O que é um modelo de linguagem grande (LLM)?

Um modelo de linguagem grande (LLM) é um modelo de linguagem estatística, treinado com uma quantidade enorme de dados, que pode ser usado para gerar e traduzir texto e outros conteúdos, além de executar outras tarefas de processamento de linguagem natural (PLN). 

Normalmente, os LLMs são baseados em arquiteturas de aprendizado profundo, como o Transformer desenvolvido pelo Google em 2017, e podem ser treinados com bilhões de texto e outros conteúdos.

Quais são alguns exemplos de modelos de fundação conhecidos?

A Vertex AI oferece acesso ao Gemini, um modelo multimodal do Google DeepMind. O Gemini é capaz de entender praticamente qualquer entrada, combinando diferentes tipos de informações e gerando quase qualquer saída. Crie e teste na Vertex AI com o Gemini, usando texto, imagens, vídeo ou código Usando o raciocínio avançado e os recursos de geração de última geração do Gemini, os desenvolvedores podem testar exemplos de comandos para extrair texto de imagens, converter o texto da imagem para JSON e até gerar respostas sobre imagens enviadas para criar aplicativos de IA de última geração.

Quais são os casos de uso para modelos de linguagem grandes?

Os LLMs orientados por texto são usados em diversas tarefas de processamento de linguagem natural, como geração de texto, tradução automática, resumo de texto, respostas a perguntas e criação de chatbots que podem conversar com humanos.

Os LLMs também podem ser treinados com outros tipos de dados, como código, imagens, áudio, vídeo e mais. Os modelos Codey, Imagen e Chirp do Google são alguns exemplos desse tipo que geram novos aplicativos e ajudam a criar soluções para os problemas mais complexos do mundo.

Quais são os benefícios dos modelos de linguagem grandes?

Os LLMs são pré-treinados com uma quantidade enorme de dados. Eles são extremamente flexíveis porque podem ser treinados para realizar diversas tarefas, como geração de texto, resumo e tradução. Eles também são escalonáveis porque podem ser ajustados a tarefas específicas, o que pode melhorar o desempenho deles.

Quais serviços de modelos de linguagem grandes o Google Cloud oferece?

IA generativa na Vertex AI: oferece acesso aos grandes modelos de IA generativa do Google para que seja possível testar, ajustar e implantá-los para uso nos seus aplicativos com tecnologia de IA.

Vertex AI Agent Builder: aplicativos empresariais de pesquisa e chatbot com fluxos de trabalho predefinidos para tarefas comuns, como integração, ingestão de dados e personalização.

Contact Center AI (CCAI): solução para central de atendimento inteligente que inclui o Dialogflow, nossa plataforma de IA de conversação com recursos de LLM e baseados em intent.

Como funciona

Os LLMs usam uma quantidade enorme de dados de texto para treinar uma rede neural. Essa rede neural é então usada para gerar e traduzir textos ou realizar outras tarefas. Quanto mais dados forem usados para treinar a rede neural, melhor e mais precisa ela será na execução da tarefa.

O Google Cloud desenvolveu produtos com base nas próprias tecnologias de LLM, atendendo a diversos casos de uso que são apresentados a seguir na seção "Usos comuns".

Engenheiro de comandos
Dicas para se tornar um engenheiro de comandos de alto nível

Usos comuns

Crie um chatbot

Crie um chatbot com tecnologia de LLM

A Vertex AI para Agentes facilita a criação de chatbots com fala natural, semelhantes a humanos. O agente de IA generativa é um recurso da Vertex AI para Agentes criado com base na funcionalidade do Dialogflow CX.

Com esse recurso, é possível informar um URL do site e/ou qualquer número de documentos para que o agente de IA generativa analise o conteúdo e crie um agente virtual com tecnologia de repositório de dados e LLMs. 

Guia para criar um chatbot com a Vertex AI para Agentes

Crie um chatbot com tecnologia de LLM

A Vertex AI para Agentes facilita a criação de chatbots com fala natural, semelhantes a humanos. O agente de IA generativa é um recurso da Vertex AI para Agentes criado com base na funcionalidade do Dialogflow CX.

Com esse recurso, é possível informar um URL do site e/ou qualquer número de documentos para que o agente de IA generativa analise o conteúdo e crie um agente virtual com tecnologia de repositório de dados e LLMs. 

Guia para criar um chatbot com a Vertex AI para Agentes

Pesquisa e descoberta de informações

Encontre e resuma informações complexas em momentos

Extraia e resuma informações importantes de documentos complexos, como formulários 10K, artigos de pesquisa, serviços de notícias de terceiros e relatórios financeiros. Basta clicar em um botão. Saiba como a Pesquisa corporativa usa linguagem natural para entender consultas semânticas, oferecer respostas resumidas e incluir perguntas de acompanhamento na demonstração à direita.

Guia para começar a usar a Pesquisa da Vertex AI
Como a IA generativa pode ajudar a encontrar e resumir informações complexas

Encontre e resuma informações complexas em momentos

Extraia e resuma informações importantes de documentos complexos, como formulários 10K, artigos de pesquisa, serviços de notícias de terceiros e relatórios financeiros. Basta clicar em um botão. Saiba como a Pesquisa corporativa usa linguagem natural para entender consultas semânticas, oferecer respostas resumidas e incluir perguntas de acompanhamento na demonstração à direita.

Guia para começar a usar a Pesquisa da Vertex AI
Como a IA generativa pode ajudar a encontrar e resumir informações complexas

Arquitetura da solução de pesquisa e descoberta de informações

A solução usa o Vertex AI Agent Builder como componente principal. Com o Vertex AI Agent Builder, até mesmo desenvolvedores em início de carreira podem criar e implantar chatbots e apps de pesquisa em minutos.

Confira um exemplo de arquitetura de referência
arquitetura de referência de IA generativa para pesquisa e descoberta

Resumo de documentos

Processe e faça um resumo de documentos grandes usando os LLMs da Vertex AI

Com o Resumo de documentos da IA generativa, implante uma solução de um clique para ajudar a detectar texto em arquivos brutos e automatizar resumos de documentos. A solução estabelece um pipeline que usa o reconhecimento óptico de caracteres (OCR) do Cloud Vision para extrair texto de documentos PDF enviados por upload no Cloud Storage, cria um resumo do texto extraído com o Vertex AI Generative AI Studio e armazena o resumo pesquisável em um banco de dados do BigQuery.

Implantar no console
Diagrama de referência para ia do doc

Processe e faça um resumo de documentos grandes usando os LLMs da Vertex AI

Com o Resumo de documentos da IA generativa, implante uma solução de um clique para ajudar a detectar texto em arquivos brutos e automatizar resumos de documentos. A solução estabelece um pipeline que usa o reconhecimento óptico de caracteres (OCR) do Cloud Vision para extrair texto de documentos PDF enviados por upload no Cloud Storage, cria um resumo do texto extraído com o Vertex AI Generative AI Studio e armazena o resumo pesquisável em um banco de dados do BigQuery.

Implantar no console
Diagrama de referência para ia do doc

Crie uma central de atendimento com tecnologia de IA

Crie uma central de atendimento com tecnologia de IA usando a CCAI

Com tecnologias de IA, como processamento de linguagem natural, machine learning e reconhecimento de texto e voz, a Contact Center AI (CCAI) oferece uma central de atendimento como serviço (CCaaS) que ajuda a criar uma central de atendimento do zero. Ela também tem ferramentas individuais voltadas a aspectos específicos de uma central de atendimento, por exemplo, Dialogflow para criar um chatbot, Agent Assist para assistência em tempo real a agentes humanos e CCAI Insights para identificar o sentimento e os motivadores das ligações.

Saiba mais sobre os recursos de LLM no Dialogflow CX
Como melhorar o atendimento ao cliente com a CCAI

Crie uma central de atendimento com tecnologia de IA usando a CCAI

Com tecnologias de IA, como processamento de linguagem natural, machine learning e reconhecimento de texto e voz, a Contact Center AI (CCAI) oferece uma central de atendimento como serviço (CCaaS) que ajuda a criar uma central de atendimento do zero. Ela também tem ferramentas individuais voltadas a aspectos específicos de uma central de atendimento, por exemplo, Dialogflow para criar um chatbot, Agent Assist para assistência em tempo real a agentes humanos e CCAI Insights para identificar o sentimento e os motivadores das ligações.

Saiba mais sobre os recursos de LLM no Dialogflow CX
Como melhorar o atendimento ao cliente com a CCAI

Treinar LLMs personalizados

Usar TPUs (Unidades de Processamento de Tensor) para treinar LLMs em grande escala

As Cloud TPUs são os supercomputadores de escala de armazenamento do Google para machine learning. Elas são otimizadas para desempenho e escalonabilidade, minimizando o custo total de propriedade e são idealmente adequadas para treinar LLMs e modelos de IA generativa.

Com os tempos de treinamento mais rápidos em cinco comparativos de mercado do MLPerf 2.0, os pods da Cloud TPU v4 são a geração mais recente de aceleradores, formando o maior hub de ML disponível publicamente com até 9 exaflops de desempenho agregado de pico.

Converse com um especialista sobre como usar Cloud TPUs
Gráfico de barras que mostra o desempenho computacional agregado do Google ocupando a primeira colocação

Usar TPUs (Unidades de Processamento de Tensor) para treinar LLMs em grande escala

As Cloud TPUs são os supercomputadores de escala de armazenamento do Google para machine learning. Elas são otimizadas para desempenho e escalonabilidade, minimizando o custo total de propriedade e são idealmente adequadas para treinar LLMs e modelos de IA generativa.

Com os tempos de treinamento mais rápidos em cinco comparativos de mercado do MLPerf 2.0, os pods da Cloud TPU v4 são a geração mais recente de aceleradores, formando o maior hub de ML disponível publicamente com até 9 exaflops de desempenho agregado de pico.

Converse com um especialista sobre como usar Cloud TPUs
Gráfico de barras que mostra o desempenho computacional agregado do Google ocupando a primeira colocação

Dê o próximo passo com o Google Cloud

Clientes novos ganham US$ 300 em créditos

Converse com um especialista sobre suas necessidades

Saiba mais sobre a IA generativa no Google Cloud

Ative a API Vertex AI

Procurando mais soluções de IA do Google Cloud?

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud