IA generativa

Documentación y recursos para compilar e implementar aplicaciones de IA generativa con herramientas y productos de Google Cloud .

  • Acceso a Gemini 2.0 Flash Thinking
  • Uso mensual gratuito de productos populares, incluidas las APIs de IA y BigQuery
  • Sin cargos automáticos ni compromisos

Sigue explorando con más de 20 productos siempre gratuitos

Accede a más de 20 productos gratuitos para casos de uso comunes, incluidas APIs de IA, VMs, almacenes de datos y mucho más.

Aprende a compilar aplicaciones de IA generativa

Accede a los grandes modelos de IA generativa de Google para que puedas probarlos, ajustarlos e implementarlos para su uso en tus aplicaciones impulsadas por IA.
Descubre cómo es enviar solicitudes a la API de Gemini a través de Vertex AI, la plataforma de IA y AA de Google Cloud.
Aprovecha la potencia de GKE como una plataforma de IA/AA personalizable que ofrece entrenamiento y entrega rentables y de alto rendimiento con una escala líder en la industria y opciones de infraestructura flexibles.
Identifica si la IA generativa, la IA tradicional o una combinación de ambas podrían adaptarse a tu caso de uso empresarial.
Aprende a abordar los desafíos en cada etapa del desarrollo de una aplicación de IA generativa.
Consulta muestras de código para casos de uso populares y ejemplos de implementación de aplicaciones de IA generativa que sean seguras, eficientes, resilientes, de alto rendimiento y rentables.
Obtén información sobre los términos específicos asociados a la IA generativa.

Herramientas de IA generativa

Lista de herramientas de IA generativa, incluidas Vertex AI Studio, Colab Enterprise/Notebooks y Workbench, que se enumeran en la consola de Cloud, y los SDK/APIs que se enumeran como un elemento independiente.

Flujo de desarrollo de la IA generativa

Diagrama del flujo de desarrollo de la IA generativa con seis etapas: selección de modelos (incluido Model Garden), ingeniería de instrucciones (incluida la galería de instrucciones, Vertex AI Studio, comparación de instrucciones y optimización de instrucciones), ajuste (incluidos el entrenamiento y el ajuste), optimización (incluida la destilación), implementación (incluidos Model Registry, la predicción en línea y la predicción por lotes) y supervisión. Las etapas de selección, ingeniería, ajuste y optimización de modelos forman parte de un subciclo de bucle etiquetado como Evaluación.

Exploración y alojamiento de modelos

Google Cloud proporciona un conjunto de modelos de base de última generación a través de Vertex AI, incluido Gemini. También puedes implementar un modelo de terceros en Vertex AI Model Garden o autoalojarlo en GKE, Cloud Run o Compute Engine.

Descubre, prueba, personaliza y, luego, implementa modelos y recursos de Google desde una biblioteca de modelos de AA.
Descubre, prueba, personaliza y, luego, implementa modelos y recursos de OSS seleccionados desde una biblioteca de modelos de AA.
Aprende a implementar modelos de generación de texto de HuggingFace en Vertex AI o Google Kubernetes Engine (GKE).
Conecta GPUs a instancias de VM para acelerar las cargas de trabajo de IA generativa en Compute Engine.

Ingeniería y diseño de instrucciones

El diseño de instrucciones es el proceso de crear pares de instrucciones y respuestas para proporcionarles a los modelos de lenguaje contexto e instrucciones adicionales. Después de escribir las instrucciones, las envías al modelo como un conjunto de datos de instrucciones para el entrenamiento previo. Cuando un modelo entrega predicciones, responde con tus instrucciones integradas.

Diseña, prueba y personaliza los mensajes enviados a los modelos de lenguaje grandes (LLM) Gemini y PaLM 2 de Google.
Aprende el flujo de trabajo de ingeniería de instrucciones y las estrategias comunes que puedes usar para afectar las respuestas del modelo.
Consulta ejemplos de instrucciones y respuestas para casos de uso específicos.

Fundamentación y RAG

La fundamentación conecta modelos de IA a fuentes de datos para mejorar la precisión de las respuestas y reducir las alucinaciones. La RAG, una técnica de fundamentación común, busca información relevante y la agrega a la instrucción del modelo, lo que garantiza que el resultado se base en hechos y en información actualizada.

Puedes fundamentar los modelos de Vertex AI con la Búsqueda de Google o con tus propios datos almacenados en Vertex AI Search.
Usa la Fundamentación con la Búsqueda de Google para conectar el modelo con el conocimiento actualizado disponible en Internet.
Usa AlloyDB para generar y almacenar embeddings de vectores y, luego, indexa y consulta los embeddings con la extensión pgvector.
Almacena las incorporaciones de vectores en Postgres SQL y, luego, indexa y consulta las incorporaciones con la extensión pgvector.
Usa LangChain para extraer datos de BigQuery y enriquecer y fundamentar las respuestas de tu modelo.
Crea incorporaciones de vectores a partir de tus datos de Firestore y, luego, indexa y consulta las incorporaciones.
Usa LangChain para extraer datos de Memorystore y enriquecer y fundamentar las respuestas de tu modelo.

Agentes y llamadas a funciones

Los agentes facilitan el diseño y la integración de una interfaz de usuario de conversación en tu app para dispositivos móviles, mientras que las llamadas a funciones extienden las capacidades de un modelo.

Aprovecha los modelos de base, la experiencia de búsqueda y las tecnologías de IA conversacional de Google para crear aplicaciones de IA generativa de nivel empresarial.
Agrega llamadas a funciones a tu modelo para habilitar acciones como reservar una reserva en función de la información del calendario extraída.

Personalización y entrenamiento de modelos

Las tareas especializadas, como entrenar un modelo de lenguaje en terminología específica, pueden requerir más entrenamiento del que puedes hacer con el diseño de indicaciones o la fundamentación por sí solos. En ese caso, puedes usar el ajuste de modelos para mejorar el rendimiento o entrenar tu propio modelo.

Evalúa el rendimiento de los modelos de base y los modelos de IA generativa ajustados en Vertex AI.
Los modelos de base de uso general pueden beneficiarse del ajuste para mejorar su rendimiento en tareas específicas.
Las TPU son ASIC de Google desarrollados de manera personalizada que se usan para acelerar las cargas de trabajo de aprendizaje automático, como el entrenamiento de un LLM.

Comienza con la compilación

LangChain es un framework de código abierto para apps de IA generativa que te permite crear contexto en tus instrucciones y tomar medidas en función de la respuesta del modelo.
Consulta muestras de código para casos de uso populares y ejemplos de implementación de aplicaciones de IA generativa que sean seguras, eficientes, resilientes, de alto rendimiento y rentables.