Gemini pour Google Cloud et l'IA responsable

Ce document explique comment Gemini pour Google Cloud est conçu dans le cadre des les fonctionnalités, les limites et les risques associés à l'IA générative.

Capacités et risques des grands modèles de langage

Les grands modèles de langage (LLM) peuvent effectuer de nombreuses tâches utiles, par exemple :

  • Traduisez la langue.
  • Résumer du texte
  • Générer du code et rédiger des textes créatifs
  • Alimentez les chatbots et les assistants virtuels.
  • Compléter les moteurs de recherche et les systèmes de recommandation

Dans le même temps, l'évolution des capacités techniques des LLM crée un usage abusif, une mauvaise application et des conséquences inattendues ou imprévues.

Les LLM peuvent générer des résultats inattendus, y compris du texte choquant, insensibles ou incorrectes. Les LLM étant incroyablement polyvalents, peut s'avérer difficile de prédire avec exactitude les types d'événements imprévus qu'ils peuvent produire.

Compte tenu de ces risques et de ces complexités, Gemini pour Google Cloud est conçu en tenant compte des principes de l'IA de Google. Cependant, il est important que les utilisateurs comprennent certaines des limites Gemini pour Google Cloud afin qu'il fonctionne en toute sécurité et de manière responsable.

Limites de Gemini pour Google Cloud

Certaines limites que vous pouvez rencontrer en utilisant Gemini pour Google Cloud incluent, sans s'y limiter, les éléments suivants:

  • Cas limites : Les cas limites désignent des situations inhabituelles, rares ou exceptionnelles. qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites dans la sortie des modèles Gemini, telles que la confiance excessive du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.

  • Hallucinations, ancrage et factualité du modèle. Gemini les modèles peuvent manquer d'ancrage et de factualité en connaissances réelles, des propriétés ou une compréhension précise. Cette limitation peut entraîner des hallucinations, où Gemini pour Google Cloud pourrait générer des sorties qui semblent plausibles, mais qui sont en fait incorrectes, non pertinentes, inappropriées ou absurdes. Les hallucinations peuvent également inclure fabriquer des liens vers des pages Web qui n’existent pas et n’ont jamais existé. Pour Pour en savoir plus, consultez Rédiger de meilleures requêtes pour Gemini pour Google Cloud

  • Qualité et réglage des données : La qualité, la précision et le biais des données de requête saisies dans les produits Gemini pour Google Cloud peuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des requêtes inexactes ou incorrectes, Gemini pour Google Cloud peut renvoyer des réponses non optimales ou fausses.

  • Amplification des biais Les modèles de langage peuvent amplifier par inadvertance des biais dans leurs données d'entraînement, ce qui peut renforcer préjugés sociétaux et inégalité de traitement de certains groupes.

  • Qualité de la langue : Alors que Gemini pour Google Cloud offre d'impressionnantes capacités multilingues pour les benchmarks par rapport à la majorité de nos benchmarks (y compris toutes les évaluations d'équité) sont en anglais américain.

    Les modèles de langage peuvent fournir une qualité de service inégale en fonction des utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues, car ils sont sous-représentés dans les données d'entraînement. Les performances peuvent être moins bonnes pour les langues autres que l'anglais ou l'anglais diverses avec moins de représentation.

  • Benchmarks et sous-groupes d'équité. les analyses d'équité de Google Research Les modèles Gemini ne fournissent pas un compte rendu exhaustif des différentes risques potentiels. Par exemple, nous nous concentrons sur les préjugés tels que le genre, l’origine ethnique, les origines ethniques et les religions, mais vous ne devez analyser Données et résultats du modèle en anglais.

  • Expertise limitée dans le domaine : Les modèles Gemini ont été entraînés sur la technologie Google Cloud, mais ne maîtrise peut-être pas qui est nécessaire pour fournir des réponses précises et détaillées sur des sujets spécialisés ou techniques, conduisant à des commentaires superficiels ou incorrects des informations.

    Lorsque vous utilisez le volet Gemini de la console Google Cloud, Gemini ne connaît pas le contexte de votre environnement spécifique. il ne peut pas répondre à des questions telles que : "Quand avez-vous créé une VM pour la dernière fois ?".

    Dans certains cas, Gemini pour Google Cloud envoie un segment spécifique de votre contexte au modèle pour recevoir une réponse spécifique au contexte (par exemple, lorsque vous cliquez sur le bouton Suggestions de dépannage sur la page du service Error Reporting).

Filtrage de la sécurité et de la toxicité dans Gemini

Les requêtes et les réponses de Gemini pour Google Cloud sont comparées à une liste complète d'attributs de sécurité, le cas échéant, pour chaque cas d'utilisation. Ces attributs de sécurité visent à filtrer les contenus qui enfreignent notre Politique d'utilisation autorisée. Si une sortie est comme nuisible, la réponse sera bloquée.

Étape suivante