Une IA responsable

Les grands modèles de langage (LLM) peuvent traduire du langage, synthétiser du texte, générer du code créatif, générer du code, alimenter des chatbots et des assistants virtuels, et compléter les moteurs de recherche et les systèmes de recommandation. Parallèlement, en tant que technologie précoce, ses capacités et ses utilisations en constante évolution peuvent être sujettes à une mauvaise application, une utilisation abusive et des conséquences inattendues ou imprévues. Les grands modèles de langage peuvent générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect.

De plus, l'incroyable polyvalence des LLM est également ce qui rend difficile de prédire exactement les types de résultats involontaires ou imprévus qu'ils pourraient produire. Compte tenu de ces risques et de ces complexités, les API d'IA générative Vertex AI sont conçues en tenant compte des Principes de Google concernant l'IA. Cependant, il est important que les développeurs comprennent et testent leurs modèles afin d'effectuer un déploiement en toute sécurité et de manière responsable. Pour aider les développeurs, Vertex AI Studio dispose d'un filtre de contenu intégré. Nos API d'IA générative intègrent également un score d'attribut de sécurité pour aider les clients à tester les filtres de sécurité de Google et à définir des seuils de confiance adaptés à leur cas d'utilisation et à leur activité. Pour en savoir plus, consultez la section Filtres et attributs de sécurité.

Lorsque nos API génératives sont intégrées à votre propre cas d'utilisation et contexte, il peut s'avérer nécessaire de prendre en compte d'autres considérations et limites en matière d'IA responsable. Nous encourageons les clients à favoriser les pratiques recommandées d'équité, d'interprétabilité, de confidentialité et de sécurité.

Filtres et attributs de sécurité

Pour apprendre à utiliser les filtres et les attributs de sécurité pour une API, consultez les pages suivantes :

Limites des modèles

Les limites que vous pouvez rencontrer lors de l'utilisation de modèles d'IA générative sont les suivantes (sans s'y limiter) :

  • Cas particuliers : les cas particuliers font référence à des situations inhabituelles, rares ou exceptionnelles qui ne sont pas bien représentées dans les données d'entraînement. Ces cas peuvent entraîner des limites de performances du modèle, comme une confiance excessive du modèle, une mauvaise interprétation du contexte ou des sorties inappropriées.

  • Hallucinations du modèle, ancrage et factualité : les modèles d'IA générative peuvent manquer de factualité dans les connaissances réelles, les propriétés physiques ou la compréhension précise. Cette limitation peut conduire à des blocages du modèle, c'est-à-dire des instances dans lesquelles des résultats peuvent être générés de manière cohérente, mais statistiquement incorrecte, non pertinente, inappropriée ou absurde. Pour réduire ces risques, vous pouvez ancrer les modèles sur vos données spécifiques. Pour en savoir plus sur l'ancrage dans Vertex AI, consultez la page Présentation de l'ancrage.

  • Qualité et réglage des données : la qualité, la précision et le biais de la requête ou des saisies de données dans un modèle peuvent avoir un impact significatif sur ses performances. Si les utilisateurs saisissent des données ou des requêtes inexactes ou incorrectes, le modèle peut présenter des performances non optimales ou de fausses sorties de modèle.

  • Amplification des biais : les modèles d'IA générative peuvent amplifier par inadvertance les biais existants dans leurs données d'entraînement, ce qui peut se traduire par un renforcement supplémentaire des préjugés sociétaux et du traitement inégal de certains groupes.

  • Qualité du langage : bien que les modèles offrent des capacités multilingues impressionnantes sur les critères de référence que nous avons évalués, la majorité de nos benchmarks (y compris toutes les évaluations de l'équité) sont en anglais. Pour en savoir plus, consultez le blog Google Research.

    • Les modèles d'IA générative peuvent fournir une qualité de service incohérente à différents utilisateurs. Par exemple, la génération de texte peut ne pas être aussi efficace pour certains dialectes ou variantes de langues en raison de la sous-représentation des données d'entraînement. Les performances peuvent être inférieures pour les langues autres que l'anglais ou pour les langues anglaises moins représentées.
  • Analyses comparatives et sous-groupes d'équité : les analyses d'équité de nos modèles d'IA générative fournies par Google Research ne fournissent pas un compte exhaustif des différents risques potentiels. Par exemple, nous nous concentrons sur les biais en fonction du genre, de l'origine ethnique, de la philosophie et de la culture, mais nous n'effectuons l'analyse que sur les données en anglais et les résultats du modèle. Pour en savoir plus, consultez le blog Google Research.

  • Expertise de domaine limitée : les modèles d'IA générative peuvent ne pas posséder les connaissances nécessaires pour fournir des réponses précises et détaillées sur des sujets hautement spécialisés ou techniques, ce qui entraîne des informations fictives ou incorrectes. Pour les cas d'utilisation spécialisés et complexes, les modèles doivent être adaptés aux données spécifiques au domaine et une supervision humaine significative doit être effectuée dans les contextes ayant un impact potentiel sur les droits individuels.

  • Longueur et structure des entrées et des sorties : les modèles d'IA générative ont une limite maximale de jetons d'entrée et de sortie. Si l'entrée ou la sortie dépasse cette limite, nos classificateurs de sécurité ne sont pas appliqués, ce qui peut à terme entraîner de mauvaises performances du modèle. Bien que nos modèles soient conçus pour gérer un large éventail de formats de texte, leurs performances peuvent être affectées si les données d'entrée ont une structure inhabituelle ou complexe.

Pour utiliser cette technologie de manière sécurisée et responsable, il est également important de prendre en compte d'autres risques spécifiques à votre cas d'utilisation, aux utilisateurs et au contexte commercial en plus des protections techniques intégrées.

Nous vous recommandons de suivre les étapes ci-dessous :

  1. Évaluez les risques de sécurité de votre application.
  2. Effectuez des tests de sécurité adaptés à votre cas d'utilisation.
  3. Configurez des filtres de sécurité si nécessaire.
  4. Encouragez les utilisateurs à envoyer des commentaires et surveillez le contenu.

Signaler un abus

Vous pouvez signaler une utilisation abusive du service, ou toute sortie générée contenant du contenu inapproprié ou des informations inexactes via le formulaire suivant : Signaler un abus présumé sur Google Cloud.

Autres ressources