Duet AI dans Google Cloud et l'IA responsable

Ce document décrit la conception de Duet AI compte tenu des fonctionnalités, des limites et des risques associés à l'IA générative.

Fonctionnalités et risques des grands modèles de langage

Les grands modèles de langage (LLM) peuvent effectuer de nombreuses tâches utiles, par exemple:

  • Langue cible.
  • Résumer le texte
  • Générer le code et la rédaction créative.
  • Alimentez les chatbots et les assistants virtuels.
  • Complétez les moteurs de recherche et les systèmes de recommandation.

Dans le même temps, l'évolution des capacités techniques des LLM peut engendrer un mauvais usage et un usage abusif, et des conséquences inattendues ou imprévues.

Les LLM peuvent générer des résultats inattendus, y compris du texte choquant, insensible ou factuellement incorrect. Les LLM sont extrêmement polyvalents. Il peut donc être difficile de prédire exactement les types de sorties imprévues ou imprévues qu'ils pourraient produire.

Compte tenu de ces risques et de ces complexités, Duet AI pour Google Cloud a été conçu en tenant compte des principes de Google concernant l'IA. Cependant, il est important que les utilisateurs comprennent certaines des limites de la technologie pour travailler de manière sécurisée et responsable.

Limites de Duet AI dans Google Cloud

Voici quelques-unes des limites que vous pourriez rencontrer lors de l'utilisation de Duet AI dans Google Cloud:

  • Cas limites : Les cas limites font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites dans les résultats de Duet AI, comme une surconfiance du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.

  • hallucinations, ancrage et factualité du modèle ; Duet AI dans Google Cloud peut manquer d'ancrage et de factualité en termes de connaissances réelles, de propriétés physiques ou de compréhension précise. Cette limitation peut entraîner des hallucinations du modèle, où Duet AI peut générer des sorties plausibles, mais factuellement incorrectes, non pertinentes, inappropriées ou absurdes. Les hallucinations peuvent également inclure la fabrication de liens vers des pages Web qui n'existent pas et qui n'ont jamais existé. Pour en savoir plus, consultez la section Écrire de meilleures requêtes pour Duet AI.

    Pour réduire les hallucinations, nous utilisons plusieurs approches, telles que la fourniture de grandes quantités de données de haute qualité pour entraîner et affiner le modèle, ainsi que des techniques d'ingénierie rapide comme la génération augmentée de récupération.

  • Qualité des données et réglages : La qualité, l'exactitude et le biais des données de requête saisies dans Duet AI peuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des requêtes inexactes ou incorrectes, Duet AI peut renvoyer des réponses non optimales ou fausses.

  • Amplification des biais Les modèles de langage peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut entraîner des résultats susceptibles de renforcer les préjugés sociétaux et le traitement inégal de certains groupes.

  • Qualité de la langue : Bien que Duet AI offre d'impressionnantes capacités multilingues pour les benchmarks avec lesquels nous avons évalué les performances, la majorité de nos benchmarks (y compris toutes les évaluations d'équité) sont en anglais américain.

    Les modèles de langage peuvent fournir une qualité de service incohérente à différents utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variétés de langues, car ils sont sous-représentés dans les données d'entraînement. Les performances peuvent être moins bonnes pour les langues autres que l'anglais ou pour les variantes en anglais, avec une représentation moins importante.

  • Benchmarks et sous-groupes d'équité. Les analyses d'équité de Duet AI menées par Google Research ne fournissent pas un compte-rendu exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais liés au genre, à l'origine ethnique et à la religion, mais nous n'effectuons l'analyse que sur les données et les sorties du modèle en anglais américain.

  • Expertise limitée dans le domaine. Duet AI a été entraîné sur la technologie Google Cloud, mais il peut manquer de connaissances approfondies pour fournir des réponses précises et détaillées sur des sujets très techniques ou très spécialisés, conduisant à des informations superficielles ou incorrectes.

    Lorsque vous utilisez le volet Duet AI de la console Google Cloud, il est possible que Duet AI ne connaisse pas le contexte complet de vos projets et de votre environnement spécifiques. Il ne sera donc peut-être pas en mesure de répondre à des questions telles que "Quand est-ce que j'ai créé une VM pour la dernière fois ?".

    Dans certains cas, Duet AI envoie un segment spécifique de votre contexte au modèle pour recevoir une réponse spécifique au contexte, par exemple lorsque vous cliquez sur le bouton Résoudre les problèmes sur la page du service Error Reporting.

Filtrage de la sécurité et de la toxicité de Duet AI

Les requêtes et les réponses Duet AI dans Google Cloud sont vérifiées par rapport à une liste complète d'attributs de sécurité, le cas échéant, pour chaque cas d'utilisation. Ces attributs de sécurité visent à filtrer les contenus qui ne respectent pas nos Règles d'utilisation autorisée. Si une sortie est considérée comme dangereuse, la réponse sera bloquée.

Étapes suivantes