Google Cloud ofrece una gama de productos y herramientas para el ciclo de vida completo de la creación de aplicaciones de IA generativa.

Aprenda a crear aplicaciones de IA generativa

IA generativa en Vertex AI

Acceda a los grandes modelos de IA generativa de Google para que pueda probarlos, ajustarlos e implementarlos para usarlos en sus aplicaciones impulsadas por IA.

Inicio rápido de Géminis

Vea cómo es enviar solicitudes a la API de Gemini a través de la plataforma AI-ML de Google Cloud, Vertex AI.

Elija la infraestructura para su aplicación de IA generativa

Elija los mejores productos y herramientas para su caso de uso y acceda a la documentación que necesita para comenzar.

Cuándo utilizar la IA generativa

Identifique si la IA generativa, la IA tradicional o una combinación de ambas podrían adaptarse a su caso de uso empresarial.

Desarrollar una aplicación de IA generativa

Aprenda cómo abordar los desafíos en cada etapa del desarrollo de una aplicación de IA generativa.

Ejemplos de código y aplicaciones de muestra

Vea ejemplos de código para casos de uso populares e implemente ejemplos de aplicaciones de IA generativa que sean seguras, eficientes, resistentes, de alto rendimiento y rentables.

Glosario de IA generativa

Conozca los términos específicos asociados con la IA generativa.

Herramientas de IA de generación

Lista de herramientas de IA generativa, incluidas Vertex AI Studio, Colab Enterprise/Notebooks y Workbench, enumeradas en Cloud Console, y SDK/API enumeradas como un elemento separado.

Flujo de desarrollo de IA de generación

Diagrama del flujo de desarrollo de IA generativa con seis etapas: selección de modelo (incluido Model Garden), ingeniería de mensajes (incluida la galería de mensajes, Vertex AI Studio, comparación de mensajes y optimización de mensajes), ajuste (incluido entrenamiento y ajuste), optimización (incluida la destilación), implementación (incluido el registro de modelos, predicción en línea y predicción por lotes) y monitoreo. Las etapas de selección del modelo, ingeniería rápida, ajuste y optimización son parte de un subciclo circular denominado Evaluación.

Exploración y alojamiento de modelos.

Google Cloud proporciona un conjunto de modelos básicos de última generación a través de Vertex AI, incluido Gemini. También puedes implementar un modelo de terceros en Vertex AI Model Garden o autohospedarte en GKE o Compute Engine.

Modelos de Google en Vertex AI (Gemini, Imagen)

Descubra, pruebe, personalice e implemente modelos y activos de Google desde una biblioteca de modelos de aprendizaje automático.

Otros modelos en Vertex AI Model Garden

Descubra, pruebe, personalice e implemente modelos y recursos OSS seleccionados desde una biblioteca de modelos ML.

Modelos de generación de texto a través de HuggingFace

Aprenda a implementar modelos de generación de texto de HuggingFace en Vertex AI o Google Kubernetes Engine (GKE).

Orquestación de IA/ML en GKE

GKE organiza de manera eficiente cargas de trabajo de IA/ML, admitiendo GPU y TPU para entrenamiento y servicio de IA generativa escalable.

GPU en Compute Engine

Conecte GPU a instancias de VM para acelerar las cargas de trabajo de IA generativa en Compute Engine.

Diseño e ingeniería rápidos.

El diseño de indicaciones es el proceso de creación de pares de indicaciones y respuestas para brindar a los modelos de lenguaje contexto e instrucciones adicionales. Después de crear solicitudes, las introduce en el modelo como un conjunto de datos de solicitudes para el entrenamiento previo. Cuando un modelo ofrece predicciones, responde con sus instrucciones integradas.

Estudio de IA vértice

Diseñe, pruebe y personalice las indicaciones enviadas a los modelos de lenguaje grande (LLM) Gemini y PaLM 2 de Google.

Descripción general de las estrategias de estímulo

Conozca el flujo de trabajo de ingeniería rápida y las estrategias comunes que puede utilizar para afectar las respuestas del modelo.
Vea ejemplos de indicaciones y respuestas para casos de uso específicos.

Puesta a tierra y RAG

Grounding conecta modelos de IA con fuentes de datos para mejorar la precisión de las respuestas y reducir las alucinaciones. RAG , una técnica de conexión a tierra común, busca información relevante y la agrega al mensaje del modelo, asegurando que la salida se base en hechos e información actualizada.

Conexión a tierra de Vertex AI

Puede conectar los modelos de Vertex AI con la Búsqueda de Google o con sus propios datos almacenados en Vertex AI Search.
Utilice Grounding con la Búsqueda de Google para conectar el modelo con el conocimiento actualizado disponible en Internet.

Incrustaciones de vectores en AlloyDB

Utilice AlloyDB para generar y almacenar incrustaciones de vectores, luego indexe y consulte las incrustaciones utilizando la extensión pgvector.

Nube SQL y pgvector

Almacene incrustaciones de vectores en Postgres SQL, luego indexe y consulte las incrustaciones usando la extensión pgvector.

Integrar datos de BigQuery en su aplicación LangChain

Utilice LangChain para extraer datos de BigQuery y enriquecer y fundamentar las respuestas de su modelo.

Incrustaciones de vectores en Firestore

Cree incrustaciones de vectores a partir de sus datos de Firestore, luego indexe y consulte las incrustaciones.

Incrustaciones de vectores en Memorystore (Redis)

Utilice LangChain para extraer datos de Memorystore y enriquecer y fundamentar las respuestas de su modelo.

Agentes y llamadas a funciones.

Los agentes facilitan el diseño y la integración de una interfaz de usuario conversacional en su aplicación móvil, mientras que las llamadas a funciones amplían las capacidades de un modelo.

Aplicaciones de IA

Aproveche los modelos básicos, la experiencia en búsquedas y las tecnologías de IA conversacional de Google para aplicaciones de IA generativa de nivel empresarial.

Llamada a función Vertex AI

Agregue llamadas a funciones a su modelo para permitir acciones como realizar una reserva basada en la información extraída del calendario.

Personalización y entrenamiento del modelo.

Las tareas especializadas, como entrenar un modelo de lenguaje en terminología específica, pueden requerir más capacitación de la que se puede hacer solo con un diseño rápido o una base sólida. En ese escenario, puede utilizar el ajuste del modelo para mejorar el rendimiento o entrenar su propio modelo.

Evaluar modelos en Vertex AI

Evalúe el rendimiento de los modelos básicos y sus modelos de IA generativa optimizados en Vertex AI.

Ajustar los modelos Vertex AI

Los modelos básicos de propósito general pueden beneficiarse del ajuste para mejorar su rendimiento en tareas específicas.

TPU en la nube

Los TPU son ASIC desarrollados a medida por Google y que se utilizan para acelerar las cargas de trabajo de aprendizaje automático, como la formación de un LLM.

Empezar a construir

LangChain es un marco de código abierto para aplicaciones de IA generativa que le permite crear contexto en sus indicaciones y tomar medidas en función de la respuesta del modelo.
Vea ejemplos de código para casos de uso populares e implemente ejemplos de aplicaciones de IA generativa que sean seguras, eficientes, resistentes, de alto rendimiento y rentables.