Los modelos de lenguaje grandes (LLM) son modelos de aprendizaje profundo entrenados con cantidades masivas de datos de texto. Los LLM pueden traducir lenguaje, resumir texto, reconocer objetos y texto en imágenes y complementar los motores de búsqueda y los sistemas de recomendación.
Google proporciona a la familia Gemini modelos de IA generativa diseñados para casos de uso multimodales, que son capaces de procesar información de varias modalidades, incluidas las imágenes, los videos y el texto.
Para ver más recursos de aprendizaje, explora el repositorio de GitHub de IA generativa. Los científicos de datos, desarrolladores y Developers Advocates de Google administran este contenido.
Empezar
Aquí encontrarás algunos notebooks, instructivos y otros ejemplos para ayudarte a empezar. Vertex AI ofrece instructivos de la consola de Google Cloud y notebooks de Jupyter que usan el SDK de Vertex AI para Python. Puedes abrir un instructivo de notebook en Colab o descargar el notebook en tu entorno preferido.
Comienza a usar Gemini
El modelo Gemini es un modelo de lenguaje innovador que desarrolló Google AI y puede extraer estadísticas significativas de una variedad de arreglos de datos, como imágenes y videos. En este notebook, se exploran varios casos de uso con mensajes multimodales.
Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter. |
Comienza a usar Vertex AI Studio de Vertex AI
Usa Vertex AI Studio a través de la consola de Google Cloud sin necesidad de usar la API ni el SDK de Vertex AI para Python. |
Prácticas recomendadas para el diseño de mensajes
Obtén información sobre cómo diseñar mensajes para mejorar la calidad de tus respuestas del modelo. En este instructivo, se abordan los conceptos básicos de la ingeniería de mensajes, incluidas algunas prácticas recomendadas.
Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter. |
LangChain 🦜️🔗
LangChain es un framework para desarrollar aplicaciones con la tecnología de LLM, como los modelos de PaLM. Usa LangChain para llevar datos externos, como tus archivos, otras aplicaciones y datos de API, a tus LLM.
Para obtener más información sobre LangChain y cómo funciona con Vertex AI, consulta la documentación oficial de LangChain y Vertex AI.
Generación aumentada de recuperación (RAG) multimodal con Gemini, Vector Search y LangChain
La generación aumentada de recuperación (RAG) se convirtió en un paradigma popular para permitir que los LLM accedan a datos externos y, también, como un mecanismo para mitigar las alucinaciones. Aprende a ejecutar la RAG multimodal en el que realizarás preguntas y respuestas en un documento financiero, lleno de imágenes y texto.
Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter. |
Aumenta la generación de preguntas y respuestas con LangChain 🦜️🔗 y Vector Search de BigQuery
Aprende a implementar un sistema de búsqueda de respuestas (QA) para mejorar la respuesta de un LLM con solo aumentar su conocimiento mediante fuentes de datos externas, como los documentos. En este ejemplo, se usa Vertex AI Gemini 1.0 Pro para texto, incorporaciones para la API de texto, el Vector Search de BigQuery y LangChain
Notebook de Jupyter: Puedes ejecutar este instructivo como un notebook de Jupyter. |
¿Qué sigue?
- Explora más recursos en el repositorio de GitHub de la IA generativa.
- Consulta otros instructivos de notebooks de Vertex AI en la descripción general de los instructivos.