IA generativa

Documentación y recursos para crear e implementar aplicaciones de IA generativa con Google Cloud herramientas y productos.

  • Acceder a Gemini 2.0 Flash Thinking
  • Uso mensual gratuito de productos populares, como las APIs de IA y BigQuery
  • Sin cargos automáticos ni permanencia

Sigue explorando con más de 20 productos Always Free

Accede a más de 20 productos gratuitos para casos prácticos habituales, como APIs de IA, máquinas virtuales, almacenes de datos y más.

Información sobre cómo crear aplicaciones de IA generativa

IA generativa en Vertex AI

Accede a los grandes modelos de IA generativa de Google para que puedas probarlos, ajustarlos y desplegarlos antes de usarlos en tus aplicaciones basadas en IA.

Guía de inicio rápido de Gemini

Descubre cómo es enviar solicitudes a la API de Gemini a través de Vertex AI, la plataforma de IA y aprendizaje automático de Google Cloud.

Orquestación de IA y aprendizaje automático en GKE

Aprovecha la potencia de GKE como plataforma de IA o de aprendizaje automático personalizable que ofrece un servicio y un entrenamiento de alto rendimiento y rentables, con una escalabilidad líder en el sector y opciones de infraestructura flexibles.

Cuándo usar la IA generativa

Identifica si la IA generativa, la IA tradicional o una combinación de ambas se adapta a tu caso práctico.

Desarrollar una aplicación de IA generativa

Descubre cómo abordar los retos de cada fase del desarrollo de una aplicación de IA generativa.

Ejemplos de código y aplicaciones de ejemplo

Consulta ejemplos de código de casos prácticos populares e implementa ejemplos de aplicaciones de IA generativa que sean seguras, eficientes, resilientes, de alto rendimiento y rentables.

Glosario de IA generativa

Consulta información sobre términos específicos asociados a la IA generativa.

Herramientas de IA generativa

Lista de herramientas de IA generativa, como Vertex AI Studio, Colab Enterprise/Notebooks y Workbench, que se encuentran en la consola de Cloud, y SDKs y APIs, que se muestran como elementos independientes.

Flujo de desarrollo de la IA generativa

Diagrama del flujo de desarrollo de la IA generativa con seis fases: selección del modelo (incluido Model Garden), ingeniería de peticiones (incluidas la galería de peticiones, Vertex AI Studio, la comparación de peticiones y la optimización de peticiones), ajuste (incluidos el entrenamiento y el ajuste), optimización (incluida la destilación), despliegue (incluidos Model Registry, la predicción online y la predicción por lotes) y monitorización. Las fases de selección, ingeniería, ajuste y optimización de modelos forman parte de un subciclo de bucle denominado Evaluación.

Exploración y alojamiento de modelos

Google Cloud proporciona un conjunto de modelos fundacionales de vanguardia a través de Vertex AI, incluido Gemini. También puedes desplegar un modelo de terceros en Model Garden de Vertex AI o alojarlo por tu cuenta en GKE o Compute Engine.

Modelos de Google en Vertex AI (Gemini, Imagen)

Descubre, prueba, personaliza y despliega modelos y recursos de Google desde una biblioteca de modelos de aprendizaje automático.

Otros modelos de Model Garden de Vertex AI

Descubre, prueba, personaliza y despliega modelos y recursos de código abierto seleccionados de una biblioteca de modelos de aprendizaje automático.

Modelos de generación de texto a través de Hugging Face

Consulta cómo desplegar modelos de generación de texto de Hugging Face en Vertex AI o Google Kubernetes Engine (GKE).

GPUs en Compute Engine

Conecta GPUs a instancias de VM para acelerar las cargas de trabajo de IA generativa en Compute Engine.

Diseño e ingeniería de peticiones

El diseño de peticiones es el proceso de crear pares de peticiones y respuestas para proporcionar a los modelos de lenguaje contexto e instrucciones adicionales. Después de crear las peticiones, se las proporcionas al modelo como un conjunto de datos de peticiones para el preentrenamiento. Cuando un modelo sirve predicciones, responde con las instrucciones que le has dado.

Vertex AI Studio

Diseña, prueba y personaliza las peticiones que envías a los modelos de lenguaje extenso (LLMs) Gemini y PaLM 2 de Google.

Resumen de las estrategias de formulación de peticiones

Descubre el flujo de trabajo de la ingeniería de peticiones y las estrategias habituales que puedes usar para influir en las respuestas del modelo.
Consulta ejemplos de peticiones y respuestas para casos prácticos específicos.

Fundamentación y RAG

La fundamentación conecta los modelos de IA con fuentes de datos para mejorar la precisión de las respuestas y reducir las alucinaciones. La RAG, una técnica de fundamentación habitual, busca información pertinente y la añade a la petición del modelo, lo que asegura que el resultado se base en datos e información actualizados.

Grounding de Vertex AI

Puedes fundamentar los modelos de Vertex AI con la Búsqueda de Google o con tus propios datos almacenados en Vertex AI Search.
Usa la fundamentación con la Búsqueda de Google para conectar el modelo con el conocimiento actualizado disponible en Internet.

Incrustaciones de vectores en AlloyDB

Usa AlloyDB para generar y almacenar incrustaciones de vectores. Después, indexa y consulta las incrustaciones con la extensión pgvector.

Cloud SQL y pgvector

Almacena incrustaciones de vectores en PostgreSQL y, a continuación, indexa y consulta las incrustaciones con la extensión pgvector.

Integrar datos de BigQuery en tu aplicación LangChain

Usa LangChain para extraer datos de BigQuery y enriquecer y fundamentar las respuestas de tu modelo.

Introducción a las inserciones vectoriales en Firestore

Crea inserciones de vectores a partir de tus datos de Firestore, y luego indexa y consulta las inserciones.

Embeddings de vectores en Memorystore (Redis)

Usa LangChain para extraer datos de Memorystore y enriquecer y fundamentar las respuestas de tu modelo.

Agentes y llamadas de funciones

Los agentes facilitan el diseño y la integración de una interfaz de usuario conversacional en tu aplicación móvil, mientras que la llamada a funciones amplía las capacidades de un modelo.

Aplicaciones de IA

Aprovecha los modelos básicos, la experiencia en búsqueda y las tecnologías de IA conversacional de Google para crear aplicaciones de IA generativa de nivel empresarial.

Llamadas a funciones de Vertex AI

Añade la función de llamada a funciones a tu modelo para habilitar acciones como reservar una cita en función de la información extraída del calendario.

Personalización y entrenamiento de modelos

Las tareas especializadas, como entrenar un modelo de lenguaje con una terminología específica, pueden requerir más entrenamiento del que puedes llevar a cabo solo con el diseño de peticiones o la fundamentación. En ese caso, puede usar el ajuste de modelos para mejorar el rendimiento o entrenar su propio modelo.

Evaluar modelos en Vertex AI

Evalúa el rendimiento de los modelos fundacionales y de los modelos de IA generativa ajustados en Vertex AI.

Ajustar modelos de Vertex AI

Los modelos fundacionales de uso general pueden beneficiarse del ajuste para mejorar su rendimiento en tareas específicas.

TPU de Cloud

Las TPUs son circuitos integrados para aplicaciones específicas (ASIC) desarrollados a medida por Google que agilizan las cargas de trabajo de aprendizaje automático, como el entrenamiento de un LLM.

Empezar a desarrollar

LangChain es un framework de código abierto para aplicaciones de IA generativa que te permite añadir contexto a tus peticiones y tomar medidas en función de la respuesta del modelo.
Consulta ejemplos de código para casos prácticos habituales y ejemplos de implementación de aplicaciones de IA generativa que sean seguras, eficientes, resilientes, de alto rendimiento y rentables.