Google Cloud ofrece una variedad de productos y herramientas para el ciclo de vida completo de la compilación de aplicaciones de IA generativa.

Aprende a compilar aplicaciones de IA generativa

IA generativa en Vertex AI

Accede a los grandes modelos de IA generativa de Google para que puedas probarlos, ajustarlos e implementarlos para su uso en tus aplicaciones impulsadas por IA.

Guía de inicio rápido de Gemini

Descubre cómo es enviar solicitudes a la API de Gemini a través de Vertex AI, la plataforma de IA y AA de Google Cloud.

Elige la infraestructura para tu aplicación de IA generativa

Elige los mejores productos y herramientas para tu caso de uso y accede a la documentación que necesitas para comenzar.

Cuándo usar la IA generativa

Identifica si la IA generativa, la IA tradicional o una combinación de ambas podrían adaptarse a tu caso de uso empresarial.

Desarrolla una aplicación de IA generativa

Aprende a abordar los desafíos en cada etapa del desarrollo de una aplicación de IA generativa.

Muestras de código y aplicaciones de ejemplo

Consulta muestras de código para casos de uso populares y ejemplos de implementación de aplicaciones de IA generativa que sean seguras, eficientes, resilientes, de alto rendimiento y rentables.

Exploración y alojamiento de modelos

Google Cloud proporciona un conjunto de modelos de base de última generación a través de Vertex AI, incluido Gemini. También puedes implementar un modelo de terceros en Vertex AI Model Garden o autoalojarlo en GKE, Cloud Run o Compute Engine.

Modelos de Google en Vertex AI (Gemini, Imagen)

Descubre, prueba, personaliza y, luego, implementa modelos y recursos de Google desde una biblioteca de modelos de AA.

Otros modelos en Vertex AI Model Garden

Descubre, prueba, personaliza y, luego, implementa modelos y recursos de OSS seleccionados desde una biblioteca de modelos de AA.

Modelos de generación de texto a través de HuggingFace

Aprende a implementar modelos de generación de texto de HuggingFace en Vertex AI o Google Kubernetes Engine (GKE).

Organización de IA y AA en GKE

GKE organiza de manera eficiente las cargas de trabajo de IA/AA, lo que admite GPUs y TPU para el entrenamiento y la entrega escalables de IA generativa.

GPU en Compute Engine

Conecta GPUs a instancias de VM para acelerar las cargas de trabajo de IA generativa en Compute Engine.

Ingeniería y diseño de instrucciones

El diseño de instrucciones es el proceso de crear pares de instrucciones y respuestas para proporcionarles a los modelos de lenguaje contexto e instrucciones adicionales. Después de escribir las instrucciones, las envías al modelo como un conjunto de datos de instrucciones para el entrenamiento previo. Cuando un modelo entrega predicciones, responde con tus instrucciones integradas.

Vertex AI Studio

Diseña, prueba y personaliza los mensajes enviados a los modelos de lenguaje grandes (LLM) Gemini y PaLM 2 de Google.

Descripción general de las estrategias de instrucciones

Aprende el flujo de trabajo de ingeniería de instrucciones y las estrategias comunes que puedes usar para afectar las respuestas del modelo.
Consulta ejemplos de instrucciones y respuestas para casos de uso específicos.

Conexión a tierra y RAG

La fundamentación conecta modelos de IA a fuentes de datos para mejorar la precisión de las respuestas y reducir las alucinaciones. La RAG, una técnica de fundamentación común, busca información relevante y la agrega a la instrucción del modelo, lo que garantiza que el resultado se base en hechos y en información actualizada.

Conexión a tierra de Vertex AI

Puedes fundamentar los modelos de Vertex AI con la Búsqueda de Google o con tus propios datos almacenados en Vertex AI Search.
Usa la Fundamentación con la Búsqueda de Google para conectar el modelo con el conocimiento actualizado disponible en Internet.

Embeddings de vector en AlloyDB

Usa AlloyDB para generar y almacenar embeddings de vectores y, luego, indexa y consulta los embeddings con la extensión pgvector.

Cloud SQL y pgvector

Almacena las incorporaciones de vectores en Postgres SQL y, luego, indexa y consulta las incorporaciones con la extensión pgvector.

Integra datos de BigQuery en tu aplicación de LangChain

Usa LangChain para extraer datos de BigQuery y enriquecer y fundamentar las respuestas de tu modelo.

Embeddings de vectores en Firestore

Crea incorporaciones de vectores a partir de tus datos de Firestore y, luego, indexa y consulta las incorporaciones.

Embeddings de vector en Memorystore (Redis)

Usa LangChain para extraer datos de Memorystore y enriquecer y fundamentar las respuestas de tu modelo.

Agentes y llamadas a funciones

Los agentes facilitan el diseño y la integración de una interfaz de usuario de conversación en tu app para dispositivos móviles, mientras que las llamadas a funciones extienden las capacidades de un modelo.

Vertex AI Agent Builder

Aprovecha los modelos de base, la experiencia de búsqueda y las tecnologías de IA conversacional de Google para crear aplicaciones de IA generativa de nivel empresarial.

Llamadas a funciones de Vertex AI

Agrega llamadas a funciones a tu modelo para habilitar acciones como reservar una reserva en función de la información del calendario extraída.

Personalización y entrenamiento de modelos

Las tareas especializadas, como entrenar un modelo de lenguaje en terminología específica, pueden requerir más entrenamiento del que puedes hacer con el diseño de indicaciones o la fundamentación por sí solos. En ese caso, puedes usar el ajuste de modelos para mejorar el rendimiento o entrenar tu propio modelo.

Evalúa modelos en Vertex AI

Evalúa el rendimiento de los modelos de base y los modelos de IA generativa ajustados en Vertex AI.

Ajusta los modelos de Vertex AI

Los modelos de base de uso general pueden beneficiarse del ajuste para mejorar su rendimiento en tareas específicas.

Cloud TPU

Las TPU son ASIC de Google desarrollados de manera personalizada que se usan para acelerar las cargas de trabajo de aprendizaje automático, como el entrenamiento de un LLM.

Comienza con la compilación

LangChain es un framework de código abierto para apps de IA generativa que te permite crear contexto en tus instrucciones y tomar medidas en función de la respuesta del modelo.
Consulta muestras de código para casos de uso populares y ejemplos de implementación de aplicaciones de IA generativa que sean seguras, eficientes, resilientes, de alto rendimiento y rentables.