icono de IA

Modelos de lenguaje extensos (LLMs)

Modelos de lenguaje extensos con la excepcional IA de Google

Google Cloud lleva las innovaciones desarrolladas y probadas por Google DeepMind a nuestra plataforma de IA preparada para el ámbito empresarial. De esta manera, los clientes pueden empezar a usarlas para desarrollar y ofrecer funciones de IA generativa hoy mismo, no en el futuro.

Los nuevos clientes reciben 300 USD gratis para invertirlo en Vertex AI.

Información general

¿Qué es un modelo de lenguaje extenso (LLM)?

Un modelo de lenguaje extenso (LLM) es un modelo estadístico de lenguaje entrenado con una gran cantidad de datos que puede utilizarse para generar y traducir texto y otros tipos de contenido, así como para llevar a cabo otras tareas de procesamiento del lenguaje natural (PLN).

Los LLMs suelen basarse en arquitecturas de aprendizaje profundo, como el Transformer que desarrolló Google en el 2017, y se pueden entrenar con miles de millones de textos y otros contenidos.

¿Cuáles son algunos ejemplos de los modelos básicos más populares?

Vertex AI ofrece acceso a Gemini, un modelo multimodal de Google DeepMind. Gemini es capaz de comprender prácticamente cualquier entrada gracias a la combinación de diferentes tipos de información, y de generar casi cualquier salida. Realiza peticiones y pruebas en Vertex AI con Gemini, usando texto, imágenes, vídeo o código. Gracias al razonamiento avanzado y las funciones innovadoras de generación de Gemini, los desarrolladores pueden probar peticiones de ejemplo para extraer texto de imágenes, convertir texto de imagen a JSON e incluso generar respuestas sobre imágenes subidas para crear aplicaciones de IA de nueva generación.

¿En qué casos se pueden usar los modelos de lenguaje extensos?

Los LLMs basados en texto se utilizan para llevar a cabo diversas tareas de procesamiento del lenguaje natural, como la generación de texto, la traducción automática, el resumen de textos, la respuesta a preguntas y la creación de bots de chat que pueden mantener conversaciones con personas.

Los LLMs también se pueden entrenar con otros tipos de datos, como código, imágenes, audio, vídeo y más. Codey, Imagen y Chirp de Google son ejemplos de modelos que generarán nuevas aplicaciones y ayudarán a crear soluciones para los problemas más complicados del mundo.

¿Cuáles son las ventajas de los modelos de lenguaje extensos?

Los LLMs se entrenan previamente con una gran cantidad de datos. Son extremadamente flexibles porque se pueden entrenar para llevar a cabo diversas tareas, como generar texto, resumen y traducción. También son escalables porque se pueden ajustar a tareas específicas, lo que puede mejorar su rendimiento.

¿Qué servicios de modelo de lenguaje extenso ofrece Google Cloud?

IA generativa en Vertex AI: te da acceso a grandes modelos de IA generativa de Google para que puedas probarlos, ajustarlos y desplegarlos antes de usarlos en tus aplicaciones basadas en IA.

Vertex AI Agent Builder: aplicaciones de bot de chat y búsqueda empresarial con flujos de trabajo predefinidos para tareas habituales como la formación inicial, la ingestión de datos y la personalización.

Contact Center AI (CCAI): solución de centro de contacto inteligente que incluye Dialogflow, nuestra plataforma de IA conversacional con funciones basadas en la intención y en LLM.

Cómo funciona

Los LLMs entrenan una red neuronal a partir de gran cantidad de datos de texto. Esta red neuronal se usa para generar o traducir texto o llevar a cabo otras tareas. Cuantos más datos se usen para entrenar la red neuronal, mejor y más precisa será la ejecución de la tarea.

Google Cloud ha desarrollado productos basados en sus tecnologías de LLMs para dar respuesta a una amplia variedad de casos prácticos. Puedes consultarlos en la sección "Usos habituales" de este artículo.

Ingeniero de peticiones
Consejos para convertirte en un ingeniero de peticiones de primera categoría

Usos habituales

Crea un bot de chat

Desarrolla un bot de chat con LLM

Vertex AI Conversation facilita la creación de bots de chat que suenan naturales y parecen humanos. Generative AI Agent es una función de Vertex AI Conversation que se basa en la funcionalidad de Dialogflow CX.

Con esta función, puedes proporcionar la URL de un sitio web o cualquier número de documentos para que el agente de IA generativa analice tu contenido y cree un agente virtual basado en almacenes de datos y LLMs.

Guía para crear un bot de chat con Vertex AI Conversation

Desarrolla un bot de chat con LLM

Vertex AI Conversation facilita la creación de bots de chat que suenan naturales y parecen humanos. Generative AI Agent es una función de Vertex AI Conversation que se basa en la funcionalidad de Dialogflow CX.

Con esta función, puedes proporcionar la URL de un sitio web o cualquier número de documentos para que el agente de IA generativa analice tu contenido y cree un agente virtual basado en almacenes de datos y LLMs.

Guía para crear un bot de chat con Vertex AI Conversation

Investigación y descubrimiento de información

Buscar y resumir información compleja en momentos

Extrae y resume información valiosa de documentos complejos, como formularios 10-K, artículos de investigación, servicios de noticias de terceros e informes financieros, con solo hacer clic en un botón. Descubre cómo utiliza Enterprise Search el lenguaje natural para comprender consultas semánticas, ofrecer respuestas resumidas y hacer preguntas de seguimiento en la demo de la derecha.

Guía de introducción a Vertex AI Search
UI de IA conversacional

Buscar y resumir información compleja en momentos

Extrae y resume información valiosa de documentos complejos, como formularios 10-K, artículos de investigación, servicios de noticias de terceros e informes financieros, con solo hacer clic en un botón. Descubre cómo utiliza Enterprise Search el lenguaje natural para comprender consultas semánticas, ofrecer respuestas resumidas y hacer preguntas de seguimiento en la demo de la derecha.

Guía de introducción a Vertex AI Search
UI de IA conversacional

Arquitectura de soluciones de investigación y descubrimiento de información

La solución usa Vertex AI Agent Builder como componente principal. Gracias a Vertex AI Agent Builder, incluso los desarrolladores que están empezando su carrera profesional pueden crear y desplegar rápidamente bots de chat y aplicaciones de búsqueda en cuestión de minutos.

Ver arquitectura de referencia de ejemplo
arquitectura de referencia de IA generativa de investigación y descubrimiento

Resumen de documentos

Procesa y resume documentos de gran tamaño con LLMs de Vertex AI

Con la solución de resumen de documentos de IA generativa, podrás desplegar una solución con un solo clic que ayude a detectar texto en archivos sin procesar y a automatizar los resúmenes de documentos. La solución establece un flujo de procesamiento que utiliza la tecnología de reconocimiento óptico de caracteres (OCR) de Cloud Vision para extraer texto de documentos PDF subidos en Cloud Storage, crear un resumen del texto extraído con Generative AI Studio de Vertex AI y almacenar el resumen, que se puede buscar, en una base de datos de BigQuery.

Desplegar en la consola
Diagrama de referencia de la IA de documentos

Procesa y resume documentos de gran tamaño con LLMs de Vertex AI

Con la solución de resumen de documentos de IA generativa, podrás desplegar una solución con un solo clic que ayude a detectar texto en archivos sin procesar y a automatizar los resúmenes de documentos. La solución establece un flujo de procesamiento que utiliza la tecnología de reconocimiento óptico de caracteres (OCR) de Cloud Vision para extraer texto de documentos PDF subidos en Cloud Storage, crear un resumen del texto extraído con Generative AI Studio de Vertex AI y almacenar el resumen, que se puede buscar, en una base de datos de BigQuery.

Desplegar en la consola
Diagrama de referencia de la IA de documentos

Crea un centro de contacto basado en IA

Crea un centro de contacto basado en IA con CCAI

Contact Center AI Platform usa la tecnología de IA del procesamiento del lenguaje natural, el aprendizaje automático y el reconocimiento de voz y texto, y cuenta con un centro de contacto como servicio (CCaaS) que permite crear un centro de contacto desde cero. También incluye herramientas concretas que se centran en aspectos específicos de un centro de contacto; por ejemplo, Dialogflow para crear un bot de chat, Agent Assist para ofrecer asistencia en tiempo real a los agentes humanos y CCAI Insights para identificar los motivos de las llamadas y opiniones de los clientes.

Más información sobre las funciones de LLM de Dialogflow CX
Mejorar el servicio de atención al cliente con CCAI

Crea un centro de contacto basado en IA con CCAI

Contact Center AI Platform usa la tecnología de IA del procesamiento del lenguaje natural, el aprendizaje automático y el reconocimiento de voz y texto, y cuenta con un centro de contacto como servicio (CCaaS) que permite crear un centro de contacto desde cero. También incluye herramientas concretas que se centran en aspectos específicos de un centro de contacto; por ejemplo, Dialogflow para crear un bot de chat, Agent Assist para ofrecer asistencia en tiempo real a los agentes humanos y CCAI Insights para identificar los motivos de las llamadas y opiniones de los clientes.

Más información sobre las funciones de LLM de Dialogflow CX
Mejorar el servicio de atención al cliente con CCAI

Entrena LLMs personalizados

Usa TPUs (unidades de procesamiento de tensor) para entrenar a LLMs a escala

Las TPUs de Cloud son los superordenadores a nivel de almacén de Google dedicados al aprendizaje automático. Están optimizados para ofrecer rendimiento y escalabilidad, a la vez que minimizan el coste total de propiedad. Además, son ideales para preparar modelos LLM y de IA generativa.

Con los tiempos de entrenamiento más rápidos para cinco puntos de referencia de MLPerf 2.0, los pods de Cloud TPU v4 son la última generación de aceleradores, lo que constituye el mayor centro de aprendizaje automático disponible públicamente, con un máximo de 9 exaflops de rendimiento global.

Habla con un especialista sobre el uso de TPUs de Cloud
Gráfico de barras que muestra el rendimiento de computación global de Google como el número 1

Usa TPUs (unidades de procesamiento de tensor) para entrenar a LLMs a escala

Las TPUs de Cloud son los superordenadores a nivel de almacén de Google dedicados al aprendizaje automático. Están optimizados para ofrecer rendimiento y escalabilidad, a la vez que minimizan el coste total de propiedad. Además, son ideales para preparar modelos LLM y de IA generativa.

Con los tiempos de entrenamiento más rápidos para cinco puntos de referencia de MLPerf 2.0, los pods de Cloud TPU v4 son la última generación de aceleradores, lo que constituye el mayor centro de aprendizaje automático disponible públicamente, con un máximo de 9 exaflops de rendimiento global.

Habla con un especialista sobre el uso de TPUs de Cloud
Gráfico de barras que muestra el rendimiento de computación global de Google como el número 1

Ve un paso más allá con Google Cloud

Los nuevos clientes reciben 300 USD en crédito gratis

Habla con un especialista sobre tus necesidades

Más información sobre la IA generativa en Google Cloud

Habilita la API de Vertex AI

¿Buscas más soluciones de IA de Google Cloud?

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Consola
Google Cloud