Saiba mais sobre LLMs, modelos do Gemini e a Vertex AI

Modelos de linguagem grandes (LLMs, na sigla em inglês) são modelos de aprendizado profundo treinados com grandes quantidades de dados de texto. Os LLMs podem traduzir idiomas, resumir textos, reconhecer objetos e textos em imagens e complementar mecanismos de pesquisa e sistemas de recomendação.

O Google oferece a família de modelos de IA generativa do Gemini, projetados para casos de uso multimodais e com capacidade para processar informações de várias modalidades, como imagens, vídeos e texto.

Para ver mais recursos de aprendizado, consulte o repositório do AI Generative no GitHub. Os cientistas de dados, desenvolvedores e mediadores de dados do Google gerenciam esse conteúdo.

Introdução

Veja alguns notebooks, tutoriais e outros exemplos para ajudar você a começar. A Vertex AI oferece tutoriais do console do Google Cloud e tutoriais do notebook Jupyter que usam o SDK da Vertex AI para Python. É possível abrir um tutorial de notebook no Colab ou fazer o download do notebook para o ambiente de sua preferência.

Comece a usar o Gemini

Comece a usar o Gemini

O modelo Gemini é um modelo de linguagem multimodal inovador desenvolvido pela IA do Google, capaz de extrair insights significativos de uma matriz diversificada de formatos de dados, incluindo imagens e vídeos. Este notebook explora vários casos de uso com comandos multimodais.

Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter.
Executar no Colab | Ver no GitHub

Introdução à Vertex AI do Vertex AI Studio

Logotipo do GenAI Studio

Use o Vertex AI Studio por meio do Console do Google Cloud sem a necessidade da API ou do SDK da Vertex AI para Python.

Ver no GitHub

Práticas recomendadas para design rápido

Logotipo da Model Garden

Saiba como criar prompts para melhorar a qualidade das respostas do modelo. Este tutorial abrange os fundamentos da engenharia de solicitações, incluindo algumas práticas recomendadas.

Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter.
Executar no Colab | Ver no GitHub

LangChain 🦜️🔗

O LangChain é um framework para desenvolvimento de aplicativos com tecnologia de LLMs, como os modelos do Gemini. Use o LangChain para trazer dados externos, como seus arquivos, outros aplicativos e dados de API, para seus LLMs.

Para saber mais sobre o LangChain e como ele funciona com a Vertex AI, consulte a documentação oficial do LangChain e da Vertex AI.

Geração aumentada de recuperação (RAG) multimodal com o Gemini, o Vector Search e o LangChain

Geração aumentada de recuperação (RAG) multimodal com o Gemini, o Vector Search e o LangChain

A geração aumentada de recuperação (RAG, na sigla em inglês) tornou-se um paradigma conhecido para permitir que os LLMs acessem dados externos e também como um mecanismo de embasamento para mitigar alucinações.

Aprenda a realizar uma RAG multimodal em que você realizará perguntas e respostas sobre um documento financeiro preenchido com texto e imagens.

Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter.
Executar no Colab | Ver no GitHub

Aumente a geração de perguntas e respostas usando o LangChain 🦜️🔗 e o BigQuery Vector Search

Aumente a geração de perguntas e respostas usando o LangChain 🦜️🔗 e o BigQuery Vector Search

Aprenda a implementar um sistema de respostas a perguntas (QA, na sigla em inglês) para melhorar a resposta de um LLM aumentando o conhecimento dele com fontes de dados externas, como documentos. O exemplo usa o Gemini 1.0 Pro for Text da Vertex AI, a API Embeddings for Text, o BigQuery Vector Search e o LangChain

Notebook do Jupyter: você pode executar este tutorial como um notebook do Jupyter.
Executar no Colab | Ver no GitHub

A seguir