Los modelos fundacionales, también conocidos como modelos base, son potentes modelos de inteligencia artificial (IA) que se entrenan con una gran cantidad de datos y se pueden adaptar a una amplia variedad de tareas. El término "modelo fundacional" fue acuñado por el Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford (HAI) en el 2021.
Esta tecnología ofrece nuevas posibilidades en todos los sectores, desde la optimización del desarrollo de software hasta la mejora de las interacciones con el servicio de atención al cliente.
Los modelos fundacionales son un tipo de modelo de IA que se preentrena con una gran cantidad de datos para realizar una serie de tareas. Este proceso de entrenamiento, que suele usar el aprendizaje autosupervisado, les permite aprender patrones y relaciones complejos en los datos, lo que les ayuda a realizar diversas tareas con mayor precisión. Y lo que es más importante, esta enorme escala puede dar lugar a capacidades emergentes, en las que el modelo puede completar tareas para las que no se ha entrenado explícitamente. Este cambio de herramientas especializadas a modelos adaptables de uso general es el sello distintivo del paradigma de los modelos fundacionales.
Los términos "modelo fundacional" y "modelo de lenguaje extenso" (LLM) se suelen usar indistintamente, pero hay una diferencia clave. Los LLMs son un tipo importante de modelo fundacional, pero no son los únicos. Piensa en ello como una relación padre-hijo: todos los LLMs son modelos fundacionales, pero no todos los modelos fundacionales son LLMs.
La diferencia clave es el tipo de datos en los que se basan. Los LLMs, como su nombre indica, se entrenan específicamente con grandes cantidades de texto y código. La categoría más amplia de "modelos fundacionales" también incluye modelos entrenados con otros tipos de datos, como imágenes, audio y vídeo, o una combinación de ellos (multimodales).
La IA generativa y los modelos fundacionales son distintos, pero están estrechamente relacionados. La forma más útil de entender la diferencia es pensar en ellos como el "motor" y la "función":
Aunque los modelos fundacionales más populares se usan para tareas generativas, se pueden adaptar para fines no generativos, como la clasificación o el análisis complejos. Por tanto, no todos los modelos fundacionales son generativos por naturaleza, pero son la tecnología clave que impulsa la oleada actual de aplicaciones de IA generativa.
Los modelos fundacionales abarcan varias arquitecturas, cada una diseñada con puntos fuertes y aplicaciones únicos. Estos son algunos de los tipos más importantes:
Los modelos fundacionales se entrenan con conjuntos de datos enormes mediante el aprendizaje autosupervisado, que es un enfoque del aprendizaje automático que aprovecha las técnicas de aprendizaje no supervisado para tareas que tradicionalmente requieren aprendizaje supervisado (por ejemplo, etiquetar datos con la intervención de personas). Esto ayuda a entrenar el modelo para que prediga las partes enmascaradas o que faltan de los datos de entrada. A medida que el modelo hace predicciones, aprende a identificar patrones, relaciones y estructuras subyacentes en los datos.
El proceso de entrenamiento de un modelo fundacional es similar al de un modelo de aprendizaje automático y suele incluir varios pasos clave:
Los modelos fundacionales ofrecen varias ventajas potenciales para las empresas y los desarrolladores:
Versatilidad
Los modelos fundacionales se pueden adaptar a una amplia variedad de tareas, lo que elimina la necesidad de entrenar modelos independientes para cada aplicación específica. Esta adaptabilidad los hace valiosos en diversos sectores y casos prácticos.
Eficiencia
Usar modelos fundacionales preentrenados puede reducir significativamente el tiempo y los recursos necesarios para desarrollar nuevas aplicaciones de IA. Afinar un modelo preentrenado suele ser más rápido y eficiente que entrenar un modelo desde cero.
Precisión
Gracias a su exhaustivo entrenamiento con grandes conjuntos de datos, los modelos fundacionales pueden alcanzar una alta precisión en diversas tareas, superando a los modelos entrenados con conjuntos de datos más pequeños.
Rentabilidad
Al reducir la necesidad de grandes cantidades de datos de entrenamiento y recursos computacionales, los modelos fundacionales pueden ofrecer una solución rentable para desarrollar aplicaciones de IA.
Innovación
Los modelos fundacionales están impulsando la innovación en el campo de la IA, ya que permiten desarrollar aplicaciones de IA nuevas y más sofisticadas.
Escalabilidad
Los modelos fundacionales se pueden escalar para gestionar grandes conjuntos de datos y tareas complejas, lo que los hace adecuados para aplicaciones exigentes.
A pesar de sus notables ventajas, los modelos fundacionales presentan retos importantes que los usuarios y los desarrolladores deben superar:
El ecosistema de modelos fundacionales es dinámico y competitivo. Estos son algunos de los ejemplos más influyentes de los principales agentes del sector:
Google Cloud proporciona una plataforma empresarial integral, Vertex AI, diseñada para ayudar a las empresas a acceder, personalizar y desplegar modelos fundacionales para aplicaciones del mundo real. La estrategia se basa en ofrecer opciones, herramientas potentes e infraestructura integrada.
Así es como Google Cloud usa los modelos fundacionales:
Empieza a crear en Google Cloud con 300 USD en crédito gratis y más de 20 productos Always Free.