AI responsabile

Vertex AI Agent Builder consente agli sviluppatori di sfruttare la potenza dei modelli di base, delle competenze di ricerca e delle tecnologie di IA conversazionale di Google per creare applicazioni di IA generativa di livello enterprise tramite Vertex AI Agents e Vertex AI Search. Essendo una tecnologia ancora in fase iniziale, le sue capacità e i suoi utilizzi in evoluzione generano un potenziale di applicazioni errate, usi impropri e conseguenze non volute o impreviste. Ad esempio, Vertex AI Agent Builder può generare output inaspettati, inclusi testi offensivi, insensibili o inesatti.

Dati questi rischi e complessità, Vertex AI Agent Builder è progettato con ai principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testino i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Agent Builder ha filtri di sicurezza integrati per aiutare i clienti a bloccare le uscite potenzialmente dannose all'interno del loro caso d'uso. Per ulteriori informazioni, vedi Impostazioni di sicurezza per Vertex AI Search.

Quando Vertex AI Agent Builder viene integrato nel caso d'uso e nel contesto unici di un cliente, potrebbero essere prese in considerazione ulteriori considerazioni sull'IA responsabile e limitazioni del modello. Incoraggiamo i clienti a utilizzare le best practice consigliate per l'equità, l'interpretabilità, la privacy e la sicurezza.

Vertex AI Search offre filtri SafeSearch per filtrare i risultati di ricerca espliciti sul sito web. I risultati espliciti potrebbero includere contenuti come pornografia, violenza, e spargimenti di sangue. Il filtro SafeSearch non è disponibile per i contenuti privati.

Il riassunto (sia per la ricerca di siti web che per i contenuti privati) esclude risposte come informazioni dispregiative, sessualmente esplicite, tossiche o violente. Inoltre, la risposta di riassunto contiene attributi di sicurezza, che Includere "categorie dannose" e agli argomenti che potrebbero essere considerati sensibili.

Ricerca nel sito web

SafeSearch può essere applicato ai contenuti pubblici indicizzati Vertex AI Search, come siti web. Quando SafeSearch è attivo, Vertex AI Search aiuta a filtrare i contenuti espliciti nella Risultati di Vertex AI Search per tutte le query relative a immagini, video e siti web. Anche se questi filtri non sono precisi al 100%, valutiamo e aggiorniamo continuamente le funzionalità di filtro.

In determinati contesti e casi d'uso, i clienti potrebbero richiedere l'accesso a una vasta gamma di informazioni, anche se includono contenuti espliciti, per raccogliere approfondimenti e risultati completi da Vertex AI Search. I clienti possono abilitare e disattiva i filtri di sicurezza utilizzando l'API impostando safe_search su "true" o "false".

Per attivare SafeSearch per la ricerca Vertex AI, utilizza la seguente chiamata dell'API:

curl -X POST\
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
 -H "Content-Type: application/json"\
"https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/servingConfigs/default_config:search"
     -d '{
      "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Per attivare SafeSearch per la ricerca con follow-up in Vertex AI Search, utilizza la seguente chiamata API:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
"https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/conversations/CONVERSATION_ID:converse" \
-d '{
  "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

L'impostazione safe_search si applica ai risultati di ricerca e anche agli output di Vertex AI Search, come il riepilogo (basato sui risultati di ricerca).

Le uscite di Vertex AI Search, come il riassunto, vengono valutate in base a un elenco di attributi di sicurezza che filtrano i contenuti potenzialmente dannosi anche quando safe_search è disattivato.

Riassunto per la ricerca di contenuti privati e siti web

Le uscite di Vertex AI Search, come il riepilogo, vengono valutate in base a un elenco di attributi di sicurezza, che filtrano i contenuti potenzialmente dannosi come informazioni denigratorie, di natura sessuale, dannose o violente, anche quando safe_search per la ricerca sul sito web è disattivato. Inoltre, puoi filtrare le risposte che includono "categorie dannose" e argomenti che potrebbero essere considerati sensibili utilizzando safetyAttributes nella risposta dell'API Vertex AI Search.

Risposte di riserva

Se il modello di riepilogo risponde a una richiesta con una stringa vuota o risposta generica, significa che l'input o l'output attiva una filtro di sicurezza. Nella risposta dell'API Vertex AI Search, SummarySkippedReason viene impostato su BLOCKED_DUE_TO_POTENTIAL_POLICY_VIOLATION se viene rilevata una potenziale violazione delle norme.

Se ritieni che un filtro di sicurezza sia inappropriato attivato, segnala il problema tramite nella console Google Cloud.

Impostazioni di sicurezza per Vertex AI Agents

La chat utilizza vari meccanismi di filtro di sicurezza sia per le query degli utenti sia per le risposte degli agenti. Il filtro include categorie quali contenuti dispregiativi, informazioni esplicite, tossiche o violente. In questo modo, le risposte in chat in modo appropriato alle query non sicure e che le risposte siano sicure in generale. Puoi anche specificare filtri aggiuntivi per i contenuti che ritieni indesiderati e definire risposte di riserva quando il filtro viene applicato nella console Dialogflow. Se ritieni che il filtro sicurezza sia stato attivato in modo inappropriato, segnalare il problema tramite la console Google Cloud.

Best practice per l'IA responsabile

Quando utilizzi gli agenti Vertex AI, ti consigliamo di seguire le seguenti best practice per l'IA responsabile:

  • Assicurati che gli utenti finali siano informati che stanno interagendo con un bot

  • Se applicabile, indica agli utenti se e quando le loro risposte vengono registrate

  • Offrire agli utenti un modo per segnalare le risposte dannose

Limitazioni

Vertex AI Agents incorpora la responsabilità in diversi modi, tra cui la sicurezza filtri per categorie quali contenuti dispregiativi, sessualmente espliciti, dannosi o informazioni violente. Tuttavia, come indicato sopra, questi filtri di sicurezza non sono accurati al 100%. Mentre continuiamo a valutare e aggiornare le nostre funzionalità di filtro, incoraggiamo i clienti a fornire un feedback sul modello, esplora i casi d'uso che portare vantaggi a livello sociale ed evitare di utilizzare Vertex AI Agentss in operazioni critiche per la sicurezza i contesti.

Vertex AI Agents è uno dei vari strumenti in grado di fornire informazioni su una materia esperti e non è destinata a essere utilizzata in contesti decisionali senza supervisione umana. Quando vengono incorporati dati privati non strutturati in cui i filtri di sicurezza non sono attivati, incoraggiamo un ruolo più ampio della valutazione del modello e della convalida umana prima dell'utilizzo.

Risorse aggiuntive