Obtén información sobre LLM, los modelos de Gemini y Vertex AI

Los modelos de lenguaje grandes (LLM) son modelos de aprendizaje profundo entrenados con cantidades masivas de datos de texto. Los LLM pueden traducir lenguaje, resumir texto, reconocer objetos y texto en imágenes y complementar los motores de búsqueda y los sistemas de recomendación.

Google proporciona a la familia Gemini modelos de IA generativa diseñados para casos de uso multimodales, que son capaces de procesar información de varias modalidades, incluidas las imágenes, los videos y el texto.

Para ver más recursos de aprendizaje, explora el repositorio de GitHub de IA generativa. Los científicos de datos, desarrolladores y Developers Advocates de Google administran este contenido.

Empezar

Aquí encontrarás algunos notebooks, instructivos y otros ejemplos para ayudarte a empezar. Vertex AI ofrece instructivos de la consola de Google Cloud y notebooks de Jupyter que usan el SDK de Vertex AI para Python. Puedes abrir un instructivo de notebook en Colab o descargar el notebook en tu entorno preferido.

Comienza a usar Gemini

Comienza a usar Gemini

El modelo Gemini es un modelo de lenguaje innovador que desarrolló Google AI y puede extraer estadísticas significativas de una variedad de arreglos de datos, como imágenes y videos. En este notebook, se exploran varios casos de uso con mensajes multimodales.

Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter.
Ejecutar en Colab | Ver en GitHub

Comienza a usar Vertex AI Studio de Vertex AI

Logotipo de GenAI Studio

Usa Vertex AI Studio a través de la consola de Google Cloud sin necesidad de usar la API ni el SDK de Vertex AI para Python.

Ver en GitHub

Prácticas recomendadas para el diseño de mensajes

Logotipo de Model Garden

Obtén información sobre cómo diseñar mensajes para mejorar la calidad de tus respuestas del modelo. En este instructivo, se abordan los conceptos básicos de la ingeniería de mensajes, incluidas algunas prácticas recomendadas.

Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter.
Ejecutar en Colab | Ver en GitHub

LangChain 🦜️🔗

LangChain es un framework para desarrollar aplicaciones con la tecnología de LLM, como los modelos de PaLM. Usa LangChain para llevar datos externos, como tus archivos, otras aplicaciones y datos de API, a tus LLM.

Para obtener más información sobre LangChain y cómo funciona con Vertex AI, consulta la documentación oficial de LangChain y Vertex AI.

Generación aumentada de recuperación (RAG) multimodal con Gemini, Vector Search y LangChain

Generación aumentada de recuperación (RAG) multimodal con Gemini, Vector Search y LangChain

La generación aumentada de recuperación (RAG) se convirtió en un paradigma popular para permitir que los LLM accedan a datos externos y, también, como un mecanismo para mitigar las alucinaciones.

Aprende a ejecutar la RAG multimodal en el que realizarás preguntas y respuestas en un documento financiero, lleno de imágenes y texto.

Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter.
Ejecutar en Colab | Ver en GitHub

Aumenta la generación de preguntas y respuestas con LangChain 🦜️🔗 y Vector Search de BigQuery

Aumenta la generación de preguntas y respuestas con LangChain 🦜️🔗 y Vector Search de BigQuery

Aprende a implementar un sistema de búsqueda de respuestas (QA) para mejorar la respuesta de un LLM con solo aumentar su conocimiento mediante fuentes de datos externas, como los documentos. En este ejemplo, se usa Vertex AI Gemini 1.0 Pro para texto, incorporaciones para la API de texto, el Vector Search de BigQuery y LangChain

Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter.
Ejecutar en Colab | Ver en GitHub

¿Qué sigue?