Modelos de linguagem grandes (LLMs, na sigla em inglês) são modelos de aprendizado profundo treinados com grandes quantidades de dados de texto. Os LLMs podem traduzir idiomas, resumir textos, reconhecer objetos e textos em imagens e complementar mecanismos de pesquisa e sistemas de recomendação.
O Google oferece a família de modelos de IA generativa do Gemini, projetados para casos de uso multimodais e com capacidade para processar informações de várias modalidades, como imagens, vídeos e texto.
Para ver mais recursos de aprendizado, consulte o repositório do AI Generative no GitHub. Os cientistas de dados, desenvolvedores e mediadores de dados do Google gerenciam esse conteúdo.
Introdução
Veja alguns notebooks, tutoriais e outros exemplos para ajudar você a começar. A Vertex AI oferece tutoriais do console do Google Cloud e tutoriais do notebook Jupyter que usam o SDK da Vertex AI para Python. É possível abrir um tutorial de notebook no Colab ou fazer o download do notebook para o ambiente de sua preferência.
Comece a usar o Gemini
O modelo Gemini é um modelo de linguagem multimodal inovador desenvolvido pela IA do Google, capaz de extrair insights significativos de uma matriz diversificada de formatos de dados, incluindo imagens e vídeos. Este notebook explora vários casos de uso com comandos multimodais.
Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter. |
Introdução à Vertex AI do Vertex AI Studio
Use o Vertex AI Studio por meio do Console do Google Cloud sem a necessidade da API ou do SDK da Vertex AI para Python. |
Práticas recomendadas para design rápido
Saiba como criar prompts para melhorar a qualidade das respostas do modelo. Este tutorial abrange os fundamentos da engenharia de solicitações, incluindo algumas práticas recomendadas.
Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter. |
LangChain 🦜️🔗
O LangChain é um framework para desenvolvimento de aplicativos com tecnologia de LLMs, como os modelos do Gemini. Use o LangChain para trazer dados externos, como seus arquivos, outros aplicativos e dados de API, para seus LLMs.
Para saber mais sobre o LangChain e como ele funciona com a Vertex AI, consulte a documentação oficial do LangChain e da Vertex AI.
Geração aumentada de recuperação (RAG) multimodal com o Gemini, o Vector Search e o LangChain
A geração aumentada de recuperação (RAG, na sigla em inglês) tornou-se um paradigma conhecido para permitir que os LLMs acessem dados externos e também como um mecanismo de embasamento para mitigar alucinações. Aprenda a realizar uma RAG multimodal em que você realizará perguntas e respostas sobre um documento financeiro preenchido com texto e imagens.
Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter. |
Aumente a geração de perguntas e respostas usando o LangChain 🦜️🔗 e o BigQuery Vector Search
Aprenda a implementar um sistema de respostas a perguntas (QA, na sigla em inglês) para melhorar a resposta de um LLM aumentando o conhecimento dele com fontes de dados externas, como documentos. O exemplo usa o Gemini 1.0 Pro for Text da Vertex AI, a API Embeddings for Text, o BigQuery Vector Search e o LangChain
Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter. |
A seguir
- Explore mais recursos no repositório do AI Generative do GitHub.
- Veja outros tutoriais do notebook da Vertex AI na visão geral dos tutoriais.