Verantwortungsbewusste Anwendung von KI

Mit Vertex AI Agent Builder können Entwickler die Vorteile der Foundation Models, der Suchexpertise und der Konversations-KI-Technologien von Google nutzen, um mit Vertex AI-Agenten und Vertex AI Search generative KI-Anwendungen für Unternehmen zu erstellen. Da es sich bei der Technologie um eine ständige Weiterentwicklung von Funktionen und Nutzungsmöglichkeiten. unbeabsichtigte oder unvorhergesehene Folgen. Beispielsweise kann Vertex AI Agent Builder zu unerwarteten Ausgaben führen, z. B. zu anstößigen, unempfindlichen oder sachlich falschen Texten.

Angesichts dieser Risiken und der Komplexität wurde Vertex AI Agent Builder mit die KI-Grundsätze von Google berücksichtigen. Es ist jedoch wichtig, dass Entwickler ihre Modelle verstehen und testen, um sie sicher und verantwortungsvoll bereitstellen zu können. Zur Unterstützung von Entwicklern verfügt Vertex AI Agent Builder über integrierte Sicherheitsfilter, mit denen Kunden potenziell schädliche Ausgaben innerhalb ihres Anwendungsfalls blockieren können. Weitere Informationen finden Sie unter Sicherheitseinstellungen für Vertex AI Search.

Wenn Vertex AI Agent Builder in den individuellen Anwendungsfall und Kontext eines Kunden eingebunden wird, müssen zusätzliche Überlegungen im Hinblick auf die verantwortungsbewusste Anwendung von KI und Modelleinschränkungen berücksichtigt werden. Wir ermutigen unsere Kunden, Fairness, Interpretierbarkeit Datenschutz und Sicherheit empfohlen .

Vertex AI Search bietet SafeSearch-Filter, um anstößige Websites herauszufiltern in den Suchergebnissen. Zu anstößigen Ergebnissen können Inhalte wie Pornografie, Gewalt, und Blut. Der SafeSearch-Filter ist für private Inhalte nicht verfügbar.

Bei der Zusammenfassung (sowohl bei der Websitesuche als auch bei privaten Inhalten) werden Antworten wie abwertende, sexuell explizite, schädliche oder gewaltverherrlichende Informationen herausgefiltert. Außerdem enthält die Antwort zur Zusammenfassung Sicherheitsattribute, darunter „schädliche Kategorien“ und Themen, die als sensibel eingestuft werden können.

Websitesuche

SafeSearch kann auf öffentliche Inhalte angewendet werden, die von Vertex AI Search indexiert werden, z. B. Websites. Wenn SafeSearch aktiviert ist, Mit Vertex AI Search werden anstößige Inhalte im Vertex AI Search-Ergebnisse für alle Suchanfragen nach Bildern, Videos und Websites. Diese Filter sind zwar nicht zu 100 % treffsicher, wir prüfen und aktualisieren sie aber laufend.

In bestimmten Kontexten und Anwendungsfällen benötigen Kunden möglicherweise Zugriff auf eine breite Palette von Informationen, auch wenn diese anstößige Inhalte enthalten, um umfassende Statistiken und Ergebnisse aus Vertex AI Search zu erhalten. Kunden können Sicherheitsfilter über die API aktivieren und deaktivieren, indem sie safe_search auf „wahr“ oder „falsch“ setzen.

Verwenden Sie den folgenden API-Aufruf, um SafeSearch für die Vertex AI Search zu aktivieren:

curl -X POST\
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
 -H "Content-Type: application/json"\
"https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/servingConfigs/default_config:search"
     -d '{
      "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Verwenden Sie den folgenden API-Aufruf, um SafeSearch für die Suche mit Nachfragen in der Vertex AI Search zu aktivieren:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
"https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/conversations/CONVERSATION_ID:converse" \
-d '{
  "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Die Einstellung safe_search gilt für Suchergebnisse und auch für Vertex AI Search-Ausgaben wie Zusammenfassungen, die auf den Suchergebnissen basieren.

Vertex AI Search-Ausgaben wie Zusammenfassungen werden anhand einer Liste von Sicherheitsattributen bewertet, mit denen potenziell schädliche Inhalte auch dann herausgefiltert werden, wenn safe_search deaktiviert ist.

Zusammenfassungen für private Inhalte und Websitesuche

Vertex AI Search-Ausgaben wie Zusammenfassungen werden anhand einer Liste von Sicherheitsattributen bewertet, mit denen potenziell schädliche Inhalte wie abwertende, sexuell explizite, schädliche oder gewaltverherrlichende Informationen herausgefiltert werden, auch wenn safe_search für die Websitesuche deaktiviert ist. Außerdem können Sie mit safetyAttributes in der Vertex AI Search API-Antwort Antworten herausfiltern, die „schädliche Kategorien“ und Themen enthalten, die als sensibel eingestuft werden können.

Fallback-Antworten

Wenn das Zusammenfassungsmodell auf eine Anfrage mit einem leeren String oder einer Generische Antwort bedeutet, dass entweder die Eingabe oder die Ausgabe ein Sicherheitsfilter. In der Vertex AI Search API-Antwort wird SummarySkippedReason auf BLOCKED_DUE_TO_POTENTIAL_POLICY_VIOLATION gesetzt, wenn ein potenzieller Richtlinienverstoß erkannt wird.

Wenn Sie der Meinung sind, dass ein Sicherheitsfilter ohne Not ausgelöst wurde, melden Sie das Problem über die Google Cloud Console.

Sicherheitseinstellungen für Vertex AI-Agents

Beim Chat werden verschiedene Sicherheitsfiltermechanismen sowohl für Nutzeranfragen als auch für Antworten von Kundenservicemitarbeitern verwendet. Die Filterung umfasst Kategorien wie abwertende, sexuell anzügliche oder sexuelle Inhalte. explizite, unangemessene oder gewaltverherrlichende Informationen. Dadurch wird sichergestellt, dass Antworten auf unsichere Anfragen angemessen reagieren und Antworten im Allgemeinen sicher sind. Sie können auch zusätzliche Filter für Inhalte angeben, die Sie für unerwünscht halten, und in der Dialogflow Console Fallback-Antworten für den Fall definieren, dass diese Filterung angewendet wird. Wenn Sie der Meinung sind, dass die Auslösung eines Sicherheitsfilters unangemessen war, melden Sie das Problem über die Google Cloud Console.

Best Practices für Responsible AI

Für die Nutzung von Vertex AI-Agents wurde die folgende Responsible AI empfohlen Best Practices:

  • Endnutzer müssen darüber informiert werden, dass sie mit einem Bot interagieren

  • Geben Sie den Nutzern gegebenenfalls an, ob und wann ihre Antworten aufgezeichnet werden.

  • Nutzern die Möglichkeit bieten, schädliche Reaktionen zu melden

Beschränkungen

Vertex AI-Agents berücksichtigen die Verantwortung auf verschiedene Arten, einschließlich Sicherheitsfiltern für Kategorien wie abwertende, sexuell explizite, toxische oder gewaltverherrlichende Informationen. Wie oben erläutert, sind diese Sicherheitsfilter jedoch nicht zu 100 % genau. Wir prüfen und aktualisieren unsere Filterfunktionen kontinuierlich. Wir möchten Sie bitten, uns Feedback zu den Modellen zu geben, Anwendungsfälle zu untersuchen, die zu einem gesellschaftlichen Nutzen führen, und die Verwendung von Vertex AI-Agenten in sicherheitskritischen Kontexten zu vermeiden.

Vertex AI Agents ist eines von mehreren Tools, die Informationen zum Thema liefern können Experten. Es ist nicht für die Entscheidungsfindung gedacht, menschliche Kontrolle. Wenn Sie unstrukturierte personenbezogene Daten einbinden, für die keine Sicherheitsfilter aktiviert sind, empfehlen wir vor der Verwendung eine stärkere Modellbewertung und manuelle Validierung.

Weitere Informationen