Une IA responsable

Les grands modèles de langage (LLM) peuvent traduire du langage, synthétiser du texte, générer du code créatif, générer du code, alimenter des chatbots et des assistants virtuels, et compléter les moteurs de recherche et les systèmes de recommandation. Parallèlement, en tant que technologie précoce, ses capacités et ses utilisations en constante évolution peuvent être sujettes à une mauvaise application, une utilisation abusive et des conséquences inattendues ou imprévues. Les grands modèles de langage peuvent générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect.

De plus, l'incroyable polyvalence des LLM est également ce qui rend difficile de prédire exactement les types de résultats involontaires ou imprévus qu'ils pourraient produire. Compte tenu de ces risques et de ces complexités, les API d'IA générative Vertex AI sont conçues en tenant compte des Principes de Google concernant l'IA. Cependant, il est important que les développeurs comprennent et testent leurs modèles afin d'effectuer un déploiement en toute sécurité et de manière responsable. Pour aider les développeurs, Vertex AI Studio dispose d'un filtre de contenu intégré. Nos API d'IA générative intègrent également un score d'attribut de sécurité pour aider les clients à tester les filtres de sécurité de Google et à définir des seuils de confiance adaptés à leur cas d'utilisation et à leur activité. Pour en savoir plus, consultez la section Filtres et attributs de sécurité.

Lorsque nos API génératives sont intégrées à votre propre cas d'utilisation et contexte, il peut s'avérer nécessaire de prendre en compte d'autres considérations et limites en matière d'IA responsable. Nous encourageons les clients à favoriser les pratiques recommandées d'équité, d'interprétabilité, de confidentialité et de sécurité.

Filtres et attributs de sécurité

Pour apprendre à utiliser les filtres et les attributs de sécurité pour une API, consultez les pages suivantes :

Métadonnées de citation

Nos fonctionnalités de code génératif sont destinées à produire du contenu original et non pas à reproduire intégralement le contenu existant. Nous avons conçu nos systèmes de façon à réduire le risque que cela se produise, et nous améliorons en continu leur fonctionnement. Si ces fonctionnalités reprennent directement et longuement le contenu d'une page Web, elles citent la page en question.

Quand plusieurs pages Web proposent le même contenu, nous tentons de vous renvoyer vers une source populaire. Dans le cas de citations de dépôts de code, celles-ci peuvent également faire référence à une licence Open Source applicable. Il vous incombe de respecter les conditions de cette licence.

Exemples de métadonnées de citation

{
  "predictions": [
    {
      "safetyAttributes": {
        "scores": [],
        "categories": [],
        "blocked": false
      },
      "content": "Shall I compare thee to a summer's day?\nThou art more lovely and more temperate.\nRough winds do shake the darling buds of May,\nAnd summer's lease hath all too short a date.\n\nSometime too hot the eye of heaven shines,\nAnd often is his gold complexion dimm'd;\nAnd every fair from fair sometime declines,\nBy chance or nature's changing course, untrimm'd.\n\nBut thy eternal summer shall not fade,\nNor lose possession of that fair thou ow'st,\nNor shall death brag thou wanderest in his shade,\nWhen in eternal lines to time thou grow'st.\n\nSo long as men can breathe or eyes can see,\nSo long lives this and this gives life to thee.",
      "citationMetadata": {
        "citations": [
          {
            "endIndex": 262,
            "publicationDate": "1800",
            "startIndex": 0,
            "title": ""The" Royal Shakespeare"
          },
          {
            "title": "Sabrinae corolla in hortulis regiae scholae Salopiensis contextuerunt tres viri floribus legendis ...",
            "publicationDate": "1801",
            "startIndex": 140,
            "endIndex": 417
          },
          {
            "startIndex": 302,
            "publicationDate": "1800",
            "title": ""The" Royal Shakespeere",
            "endIndex": 429
          },
          {
            "startIndex": 473,
            "publicationDate": "1847",
            "title": "The Poems of William Shakespeare",
            "endIndex": 618
          }
        ]
      }
    }
  ]
}

Description des métadonnées

Le tableau suivant décrit les métadonnées de citation.

Métadonnées Description

startIndex

Index de la réponse où la citation commence (inclus). Doit être supérieur ou égal à 0 et inférieur à la valeur de endIndex.

endIndex

Index de la sortie de prédiction où la citation se termine (exclusive). Doit être supérieur à startIndex et inférieur à la longueur de la réponse.

url

URL associée à cette citation. Si elle est présente, cette URL renvoie vers la page Web source de cette citation.

title

Titre associé à cette citation. Si elle est présente, il s'agit du titre de la source de cette citation.

license

Licence associée à cette citation. Si elle est présente, il s'agit de la licence détectée automatiquement de la source de cette citation. Les licences possibles incluent les licences Open Source.

publicationDate

Date de publication associée à cette citation. Le cas échéant, il s'agit de la date à laquelle la source de cette citation a été publiée. Les formats possibles sont AAAA, AAAA-MM, AAAA-MM-JJ.

Limites des modèles

Les limites que vous pouvez rencontrer lors de l'utilisation de modèles d'IA générative sont les suivantes (sans s'y limiter) :

  • Cas particuliers : les cas particuliers font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites de performances du modèle, comme une confiance excessive du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.

  • Hallucinations du modèle, ancrage et factualité : les modèles d'IA générative peuvent manquer de factualité dans les connaissances réelles, les propriétés physiques ou la compréhension précise. Cette limitation peut conduire à des blocages du modèle, c'est-à-dire des instances dans lesquelles des résultats peuvent être générés de manière cohérente, mais statistiquement incorrecte, non pertinente, inappropriée ou absurde. Pour réduire ces risques, vous pouvez ancrer les modèles sur vos données spécifiques. Pour en savoir plus sur l'ancrage dans Vertex AI, consultez la page Présentation de l'ancrage.

  • Qualité et réglage des données : la qualité, la précision et le biais de l'invite ou des saisies de données dans un modèle peuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des données ou des invites inexactes ou incorrectes, le modèle peut présenter des performances non optimales ou de fausses sorties de modèle.

  • Amplification des biais : les modèles d'IA générative peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut se traduire par un renforcement supplémentaire des préjugés sociétaux et du traitement inégal de certains groupes.

  • Qualité du langage : bien que les modèles offrent des capacités multilingues impressionnantes sur les critères de référence que nous avons évalués, la majorité de nos benchmarks (y compris toutes les évaluations de l'équité) sont en anglais. Pour en savoir plus, consultez le blog Google Research.

    • Les modèles d'IA générative peuvent fournir une qualité de service incohérente à différents utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues en raison de la sous-représentation des données d'entraînement. Les performances peuvent être inférieures pour les langues autres que l'anglais ou pour les langues anglaises moins représentées.
  • Analyses comparatives et sous-groupes d'équité : les analyses d'équité de nos modèles d'IA générative fournies par Google Research ne fournissent pas un compte exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais en fonction du genre, de l'origine ethnique, de la philosophie et de la culture, mais nous n'effectuons l'analyse que sur les données en anglais et les résultats du modèle. Pour en savoir plus, consultez le blog Google Research.

  • Expertise de domaine limitée : les modèles d'IA générative peuvent ne pas posséder les connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets hautement spécialisés ou techniques, ce qui entraîne des informations fictives ou incorrectes. Pour les cas d'utilisation spécialisés et complexes, les modèles doivent être adaptés aux données spécifiques au domaine et une supervision humaine significative doit être effectuée dans les contextes ayant un impact potentiel sur les droits individuels.

  • Longueur et structure des entrées et des sorties : les modèles d'IA générative ont une limite maximale de jetons d'entrée et de sortie. Si l'entrée ou la sortie dépasse cette limite, nos classificateurs de sécurité ne sont pas appliqués, ce qui peut à terme entraîner de mauvaises performances du modèle. Bien que nos modèles soient conçus pour gérer un large éventail de formats de texte, leurs performances peuvent être affectées si les données d'entrée ont une structure inhabituelle ou complexe.

Pour utiliser cette technologie de manière sécurisée et responsable, il est également important de prendre en compte d'autres risques spécifiques à votre cas d'utilisation, aux utilisateurs et au contexte commercial en plus des protections techniques intégrées.

Nous vous recommandons de suivre les étapes ci-dessous :

  1. Évaluez les risques de sécurité de votre application.
  2. Pensez à apporter des ajustements pour limiter les risques de sécurité.
  3. Effectuez des tests de sécurité adaptés à votre cas d'utilisation.
  4. Encouragez les utilisateurs à envoyer des commentaires et surveillez le contenu.

Signaler un abus

Vous pouvez signaler une utilisation abusive du service, ou toute sortie générée contenant du contenu inapproprié ou des informations inexactes via le formulaire suivant : Signaler un abus présumé sur Google Cloud.

Autres ressources