Les modèles de fondation, parfois appelés modèles de base, sont de puissants modèles d'intelligence artificielle (IA) qui sont entraînés sur une quantité massive de données et peuvent être adaptés à un large éventail de tâches. Le terme "modèle de fondation" a été inventé par le Stanford Institute for Human-Centered Artificial Intelligence (HAI) en 2021.
Cette technologie offre de nouvelles possibilités dans tous les secteurs, de la simplification du développement de logiciels à l'amélioration des interactions du service client.
Les modèles de fondation sont des modèles d'IA qui subissent un pré-entraînement sur une grande quantité de données pour effectuer un éventail de tâches. Ce processus d'entraînement, qui utilise souvent l'apprentissage auto-supervisé, leur permet d'identifier des schémas et des relations complexes dans les données, et ainsi d'effectuer diverses tâches avec une précision accrue. Plus important encore, cette échelle massive peut entraîner l'émergence de capacités, où le modèle peut effectuer des tâches pour lesquelles il n'a pas été explicitement entraîné. Ce passage d'outils spécialisés à des modèles adaptables à usage général est la marque du paradigme des modèles de fondation.
Les termes "modèle de fondation" et "grand modèle de langage" (LLM) sont souvent utilisés de manière interchangeable, mais il existe une différence essentielle. Les LLM sont un type majeur de modèle de fondation, mais ce ne sont pas les seuls. Considérez-les comme une relation parent-enfant : tous les LLM sont des modèles de fondation, mais tous les modèles de fondation ne sont pas des LLM.
La principale différence réside dans le type de données sur lesquelles ils sont basés. Comme leur nom l'indique, les LLM sont entraînés spécifiquement sur de grandes quantités de texte et de code. La catégorie plus large des "modèles de fondation" inclut également des modèles entraînés sur d'autres types de données, comme des images, de l'audio et des vidéos, ou une combinaison de ces types de données (multimodal).
L'IA générative et les modèles de fondation sont distincts, mais étroitement liés. Pour bien comprendre la différence, vous pouvez les considérer comme le "moteur" et la "fonction" :
Bien que les modèles de fondation les plus populaires soient utilisés pour des tâches génératives, un modèle de fondation peut être adapté à des fins non génératives, comme la classification ou l'analyse complexes. Par conséquent, tous les modèles de fondation ne sont pas intrinsèquement génératifs, mais ils constituent la technologie clé qui alimente la vague actuelle d'applications d'IA générative.
Les modèles de fondation englobent diverses architectures, chacune conçue avec des atouts et des applications uniques. Voici quelques types notables :
Les modèles de fondation sont entraînés sur des ensembles de données volumineux à l'aide de l'apprentissage auto-supervisé, une approche du machine learning qui exploite des techniques d'apprentissage non supervisé pour des tâches qui nécessitent traditionnellement un apprentissage supervisé (par exemple, l'étiquetage des données avec une intervention humaine). Cela permet d'entraîner le modèle à prédire les parties masquées ou manquantes des données d'entrée. À mesure que le modèle effectue des prédictions, il apprend à identifier des modèles, des relations et des structures sous-jacentes dans les données.
Le processus d'entraînement d'un modèle de fondation est similaire à celui d'un modèle de machine learning et comporte généralement plusieurs étapes clés :
Les modèles de fondation offrent plusieurs avantages potentiels aux entreprises et aux développeurs :
Polyvalence
Les modèles de fondation peuvent être adaptés à un large éventail de tâches, ce qui évite d'avoir à entraîner des modèles distincts pour chaque application spécifique. Cette adaptabilité les rend utiles dans divers secteurs et cas d'utilisation.
Efficacité
L'utilisation de modèles de fondation pré-entraînés peut réduire considérablement le temps et les ressources nécessaires au développement de nouvelles applications d'IA. L'affinage d'un modèle pré-entraîné est souvent plus rapide et plus efficace que l'entraînement d'un modèle à partir de zéro.
Précision
Grâce à leur entraînement intensif sur de vastes ensembles de données, les modèles de fondation peuvent atteindre une grande justesse sur diverses tâches, surpassant ainsi les modèles entraînés sur des ensembles de données plus petits.
Rentabilité
En réduisant le besoin de données d'entraînement et de ressources de calcul considérables, les modèles de fondation peuvent offrir une solution économique pour développer des applications d'IA.
Innovation
Les modèles de fondation contribuent à stimuler l'innovation dans le domaine de l'IA, en permettant le développement d'applications d'IA nouvelles et plus sophistiquées.
Évolutivité
Les modèles de fondation peuvent être mis à l'échelle pour traiter de grands ensembles de données et des tâches complexes, ce qui les rend adaptés aux applications exigeantes.
Malgré leurs avantages, les modèles de fondation présentent des défis importants que les utilisateurs et les développeurs doivent relever :
L'écosystème des modèles de fondation est dynamique et compétitif. Voici quelques-uns des exemples les plus influents de la part d'acteurs clés du secteur :
Google Cloud fournit une plate-forme d'entreprise de bout en bout, Vertex AI, conçue pour aider les organisations à accéder aux modèles de fondation, à les personnaliser et à les déployer pour des applications concrètes. Cette stratégie repose sur le choix, des outils performants et une infrastructure intégrée.
Voici comment Google Cloud utilise les modèles de fondation :
Profitez de 300 $ de crédits gratuits et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.