Une IA responsable

Vertex AI Agent Builder permet aux développeurs de tirer parti de la puissance des modèles de base, de l'expertise en recherche et des technologies d'IA conversationnelle de Google pour créer des applications d'IA générative de niveau professionnel via les agents Vertex AI et la recherche Vertex AI. En tant que technologie précoce, les fonctionnalités et les utilisations en constante évolution de l'IA peuvent être sujettes à une mauvaise application, une utilisation abusive et des conséquences imprévues ou inattendues. Par exemple, Vertex AI Agent Builder peut générer des résultats inattendus, y compris du texte offensant, insensible ou incorrect.

Compte tenu de ces risques et de ces complexités, Vertex AI Agent Builder est conçu en tenant compte des principes de l'IA de Google. Cependant, il est important que les développeurs comprennent et testent leurs modèles afin d'effectuer un déploiement en toute sécurité et de manière responsable. Pour aider les développeurs, Vertex AI Agent Builder dispose de filtres de sécurité intégrés qui aident les clients à bloquer les sorties potentiellement dangereuses dans leur cas d'utilisation. Pour en savoir plus, consultez Paramètres de sécurité pour Vertex AI Search.

Lorsque Vertex AI Agent Builder est intégré au cas d'utilisation et au contexte uniques d'un client, des considérations d'IA responsable supplémentaires et des limites de modèle peuvent être nécessaires. Nous encourageons les clients à adopter les pratiques recommandées d'équité, d'interprétabilité, de confidentialité et de sécurité.

Vertex AI Search propose des filtres SafeSearch pour filtrer les résultats de recherche explicites sur les sites Web. Les résultats explicites peuvent inclure des contenus comme la pornographie, la violence et le gore. Le filtrage SafeSearch n'est pas disponible pour le contenu privé.

La synthèse (à la fois pour la recherche sur un site Web et pour le contenu privé) filtre les réponses telles que les informations dégradantes, à caractère sexuel explicite, toxiques ou violentes. De plus, la réponse de résumé contient des attributs de sécurité, qui incluent les "catégories dangereuses" et les sujets pouvant être considérés comme sensibles.

Recherche pour site Web

SafeSearch peut être appliqué aux contenus publics indexés par Vertex AI Search, tels que les sites Web. Lorsque SafeSearch est activé, Vertex AI Search filtre les images, vidéos et sites Web explicites dans les résultats de recherche Vertex AI Search d'un client pour toutes les requêtes effectuées. Bien que ces filtres ne soient pas fiables à 100 %, nous évaluons et mettons à jour en permanence les fonctionnalités de filtrage.

Dans certains contextes et cas d'utilisation, les clients peuvent avoir besoin d'accéder à un large éventail d'informations, même si elles incluent du contenu explicite, pour obtenir des insights et des résultats complets de Vertex AI Search. Les clients peuvent activer et désactiver les filtres de sécurité à l'aide de l'API en définissant safe_search sur "true" ou "false".

Pour activer SafeSearch pour Vertex AI Search, utilisez l'appel d'API suivant:

curl -X POST\
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
 -H "Content-Type: application/json"\
"https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/servingConfigs/default_config:search"
     -d '{
      "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Pour activer SafeSearch pour la recherche avec suivis dans Vertex AI Search, utilisez l'appel d'API suivant:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
"https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/conversations/CONVERSATION_ID:converse" \
-d '{
  "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Le paramètre safe_search s'applique aux résultats de recherche, mais aussi aux sorties de Vertex AI Search, comme la synthèse (qui est basée sur les résultats de recherche).

Les sorties de la recherche Vertex AI, telles que le résumé, sont évaluées par rapport à une liste d'attributs de sécurité qui filtrent le contenu potentiellement dangereux, même lorsque safe_search est désactivé.

Résumer le contenu privé et la recherche sur un site Web

Les sorties de Vertex AI Search, telles que la synthèse, sont évaluées en fonction d'une liste d'attributs de sécurité, qui filtre les contenus potentiellement dangereux tels que les informations dénigrantes, à caractère sexuel explicite, toxiques ou violentes, même lorsque safe_search est désactivé pour la recherche sur le site Web. En outre, vous pouvez filtrer les réponses qui incluent des "catégories dangereuses" et des sujets pouvant être considérés comme sensibles en utilisant safetyAttributes dans la réponse de l'API Vertex AI Search.

Réponses de remplacement

Si le modèle de résumé répond à une requête avec une chaîne vide ou une réponse générique, cela signifie que l'entrée ou la sortie déclenche un filtre de sécurité. Dans la réponse de l'API Vertex AI Search, SummarySkippedReason est défini sur BLOCKED_DUE_TO_POTENTIAL_POLICY_VIOLATION si un cas de non-respect potentiel des règles est détecté.

Si vous pensez qu'un filtre de sécurité est déclenché de manière inappropriée, signalez ce problème via la consoleGoogle Cloud .

Paramètres de sécurité pour les agents Vertex AI

Chat utilise différents mécanismes de filtrage de sécurité pour les requêtes des utilisateurs et les réponses des agents. Le filtrage inclut des catégories telles que les informations dégradantes, à caractère sexuel explicite, toxiques ou violentes. Cela garantit que le chat répond de manière appropriée aux requêtes non sécurisées et que les réponses sont sécurisées en général. Vous pouvez également spécifier des filtres supplémentaires pour les contenus que vous jugez indésirables et définir des réponses de remplacement lorsque ce filtrage s'applique dans la console Dialogflow. Si vous pensez que le filtrage de sécurité est déclenché de manière inappropriée, signalez ce problème via la console Google Cloud .

Bonnes pratiques d'IA responsable

Lorsque vous utilisez les agents Vertex AI, nous vous recommandons de suivre les bonnes pratiques d'IA responsable suivantes:

  • Assurez-vous que les utilisateurs finaux sont informés qu'ils interagissent avec un robot.

  • Le cas échéant, indiquez aux utilisateurs si et quand leurs réponses sont enregistrées.

  • Permettre aux utilisateurs de signaler les réponses dangereuses

Limites

Les agents Vertex AI intègrent la responsabilité de plusieurs manières, y compris des filtres de sécurité pour les catégories telles que les informations dénigrantes, à caractère sexuel explicite, toxiques ou violentes. Toutefois, comme indiqué ci-dessus, ces filtres de sécurité ne sont pas fiables à 100 %. Alors que nous continuons d'évaluer et de mettre à jour nos fonctionnalités de filtrage, nous encourageons les clients à nous faire part de leurs commentaires sur les modèles, à explorer les cas d'utilisation qui apporteront des avantages sociétaux et à éviter d'utiliser les agents Vertex AI dans des contextes critiques pour la sécurité.

Vertex AI Agents est l'un des nombreux outils pouvant informer les experts sur un sujet donné. Il n'est pas destiné à être utilisé dans des contextes de prise de décision sans surveillance humaine. Lorsque vous incorporez des données privées non structurées pour lesquelles les filtres de sécurité ne sont pas activés, nous vous encourageons à accorder plus d'importance à l'évaluation du modèle et à la validation humaine avant l'utilisation.

Autres ressources