Gemini pour Google Cloud et l'IA responsable

Ce document explique comment Gemini pour Google Cloud est conçu en fonction des fonctionnalités, des limites et des risques associés à l'IA générative.

Capacités et risques des grands modèles de langage

Les grands modèles de langage (LLM) peuvent effectuer de nombreuses tâches utiles, par exemple:

  • Traduire la langue.
  • Résumer du texte
  • Générer du code et rédiger des textes créatifs
  • Boostez des chatbots et des assistants virtuels.
  • Complétez les moteurs de recherche et les systèmes de recommandation.

En parallèle, l'évolution des capacités techniques des LLM peut entraîner des erreurs d'application, un usage abusif et des conséquences inattendues ou imprévues.

Les LLM peuvent générer des résultats inattendus, y compris du texte choquant, insensible ou incorrect dans les faits. Les LLM étant incroyablement polyvalents, il peut être difficile de prévoir exactement les types de résultats inattendus ou imprévus qu'ils pourraient produire.

Compte tenu de ces risques et de ces complexités, Gemini pour Google Cloud a été conçu en pensant aux principes de Google concernant l'IA. Toutefois, il est important que les utilisateurs comprennent certaines des limites de Gemini pour Google Cloud afin de travailler de manière sécurisée et responsable.

Limites de Gemini pour Google Cloud

Voici quelques-unes des limites que vous pouvez rencontrer en utilisant Gemini pour Google Cloud:

  • Cas limites : Les cas limites désignent des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas de figure peuvent entraîner des limites dans la sortie des modèles Gemini, telles que la surconfiance du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.

  • Hallucinations, ancrage et factualité du modèle. Les modèles Gemini peuvent manquer d'ancrage et de factualité en termes de connaissances réelles, de propriétés physiques ou de compréhension précise. Cette limitation peut entraîner des hallucinations du modèle, où Gemini pour Google Cloud peut générer des résultats au ton plausible mais en fait incorrects, non pertinents, inappropriés ou absurdes. Les hallucinations peuvent également inclure la création de liens vers des pages Web qui n'existent pas et n'ont jamais existé. Pour en savoir plus, consultez Rédiger de meilleures requêtes pour Gemini pour Google Cloud.

  • Qualité et réglage des données : La qualité, la justesse et le biais des données de requête saisies dans Gemini pour Google Cloud peuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des requêtes inexactes ou incorrectes, Gemini pour Google Cloud peut renvoyer des réponses non optimales ou fausses.

  • Amplification des biais : Les modèles de langage peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut entraîner des résultats pouvant renforcer davantage les préjugés sociétaux et le traitement inéquitable de certains groupes.

  • Qualité de la langue : Bien que Gemini pour Google Cloud offre des fonctionnalités multilingues impressionnantes par rapport aux benchmarks que nous avons évalués, la majorité de nos benchmarks (y compris toutes les évaluations d'équité) sont en anglais américain.

    Les modèles de langage peuvent fournir une qualité de service inégale en fonction des utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variétés linguistiques, car ils sont sous-représentés dans les données d'entraînement. Les performances peuvent être moins bonnes pour les langues autres que l'anglais ou pour les variantes linguistiques de l'anglais avec une représentation moindre.

  • Benchmarks et sous-groupes d'équité. Les analyses d'équité des modèles Gemini de Google Research ne fournissent pas un compte complet des différents risques potentiels. Par exemple, nous nous concentrons sur les biais liés au genre, à l'origine ethnique, à l'origine ethnique et à la religion, mais nous n'effectuons l'analyse que sur les données en anglais américain et les résultats des modèles.

  • Expertise limitée dans le domaine : Les modèles Gemini ont été entraînés sur la technologie Google Cloud, mais ils ne disposent peut-être pas des connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets très spécialisés ou techniques, conduisant à des informations superficielles ou incorrectes.

    Lorsque vous utilisez le volet Gemini de la console Google Cloud, Gemini ne connaît pas le contexte de votre environnement spécifique. Il ne peut donc pas répondre à des questions telles que "Quand ai-je créé une VM pour la dernière fois ?".

    Dans certains cas, Gemini pour Google Cloud envoie un segment spécifique de votre contexte au modèle afin de recevoir une réponse spécifique au contexte, par exemple lorsque vous cliquez sur le bouton Résoudre les problèmes liés aux suggestions sur la page du service Error Reporting.

Filtrage de la sécurité et de la toxicité dans Gemini

Les requêtes et les réponses de Gemini pour Google Cloud sont comparées à une liste complète d'attributs de sécurité applicables à chaque cas d'utilisation. Ces attributs de sécurité visent à filtrer les contenus qui ne respectent pas notre Politique d'utilisation autorisée. Si une sortie est considérée comme dangereuse, la réponse est bloquée.

Étapes suivantes