Les hallucinations générées par l'IA sont des résultats incorrects ou trompeurs générés par les modèles d'IA. Ces erreurs peuvent être causées par divers facteurs, y compris des données d'entraînement insuffisantes, des hypothèses erronées formulées par le modèle ou des biais dans les données utilisées pour entraîner le modèle. Les hallucinations générées par l'IA peuvent poser problème aux systèmes d'IA qui sont utilisés pour prendre des décisions importantes, par exemple pour effectuer des diagnostics médicaux ou effectuer des transactions financières.
Les nouveaux clients bénéficient d'un maximum de 300 $ de crédits pour essayer Vertex AI et d'autres produits Google Cloud.
Les modèles d'IA sont entraînés sur des données et apprennent à réaliser des prédictions en identifiant des tendances récurrentes parmi ces données. Cependant, la justesse de ces prédictions dépend souvent de la qualité et de l'exhaustivité des données d'entraînement. Si les données d'entraînement sont incomplètes, biaisées ou erronées, le modèle d'IA peut apprendre des schémas incorrects, ce qui peut conduire à des prédictions inexactes ou à des hallucinations.
Par exemple, un modèle d'IA entraîné sur un ensemble de données d'images médicales peut apprendre à identifier des cellules cancéreuses. Toutefois, si l'ensemble de données ne comprend aucune image de tissus sains, le modèle d'IA peut prédire à tort que des tissus sains sont cancéreux.
Les données d'entraînement erronées ne sont qu'une des causes des hallucinations des IA. Un autre facteur qui peut contribuer est le manque d’ancrage. Un modèle d'IA peut avoir des difficultés à comprendre avec précision des connaissances du monde réel, des propriétés physiques ou des informations factuelles. Ce manque d'ancrage peut amener le modèle à générer des sorties qui, bien qu'apparaissables plausibles, sont en fait incorrectes, non pertinentes ou incompréhensibles. Cela peut même aller jusqu'à la création de liens vers des pages Web qui n'ont jamais existé.
Par exemple, un modèle d'IA conçu pour générer des résumés d'articles de presse peut produire un résumé qui inclut des détails absents de l'article d'origine, voire qui fabrique entièrement des informations.
Comprendre ces causes potentielles d'hallucinations de l'IA est important pour les développeurs qui utilisent des modèles d'IA. En examinant attentivement la qualité et l'exhaustivité des données d'entraînement, et en s'assurant de les ancrer correctement, les développeurs peuvent réduire le risque d'hallucinations de l'IA, et garantir l'exactitude et la fiabilité de leurs modèles.
Les hallucinations générées par l'IA peuvent prendre de nombreuses formes. Voici quelques exemples courants :
Lorsque vous entraînez un modèle d'IA, il est important de limiter le nombre de résultats qu'il peut prédire. Pour ce faire, vous pouvez utiliser une technique dite de "régularisation". Elle consiste à pénaliser le modèle pour les prédictions qui se révèlent trop extrêmes. Cela permet d'éviter le surapprentissage des données d'entraînement, entraînant la formulation de prédictions incorrectes.
Lors de l'entraînement d'un modèle d'IA, il est important d'utiliser des données pertinentes pour la tâche que ce modèle va effectuer. Par exemple, si vous entraînez un modèle d'IA pour identifier un cancer, vous devez utiliser un ensemble de données d'images médicales. L'utilisation de données inappropriées pour la tâche peut conduire le modèle d'IA à effectuer des prédictions incorrectes.
Lors de l'entraînement d'un modèle d'IA, il est utile de créer un modèle à suivre. Ce modèle peut aider le modèle d'IA à réaliser des prédictions. Par exemple, si vous entraînez un modèle d'IA à écrire du texte, vous pouvez créer un modèle qui inclut les éléments suivants :
Lorsque vous utilisez un modèle d'IA, il est important de lui indiquer ce que vous voulez et ce dont vous ne voulez pas. Pour ce faire, vous avez la possibilité de fournir des commentaires au modèle. Par exemple, si vous utilisez un modèle d'IA pour générer du texte, vous pouvez fournir des commentaires au modèle en lui indiquant les textes que vous appréciez et ceux que vous n'aimez pas. Cela aidera le modèle à apprendre ce que vous recherchez.
Découvrez comment utiliser Google Cloud pour prévenir les hallucinations générées par l'IA :
Profitez de 300 $ de crédits gratuits et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.