Konfidenzbewertung für Sicherheitsattribute
Über die Vertex AI Gemini API verarbeitete Inhalte werden anhand einer Liste von Sicherheitsattributen bewertet, die „schädliche Kategorien“ und Themen enthalten, die als sensitiv eingestuft werden können. Diese Sicherheitsattribute sind in der folgenden Tabelle aufgeführt:
Definitionen der Sicherheitsattribute
Sicherheitsattribut | Definition |
---|---|
Hassrede | Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind |
Belästigung | Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind |
sexuell explizit | Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte |
Gefährliche Inhalte | Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten |
Wahrscheinlichkeiten für Sicherheitsattribute
Jedem Sicherheitsattribut ist ein Konfidenzwert zwischen 0,0 und 1,0 zugeordnet, gerundet auf eine Dezimalstelle. Dieser Wert gibt die Wahrscheinlichkeit an, mit der eine Eingabe oder Antwort zu einer bestimmten Kategorie gehört.
Der Konfidenzwert in der folgenden Tabelle wird mit einem Sicherheitskonfidenzniveau zurückgegeben:
Wahrscheinlichkeit | Beschreibung |
---|---|
Vernachlässigbar | Inhalte haben eine vernachlässigbare Wahrscheinlichkeit, unsicher zu sein |
NIEDRIG | Inhalte haben eine geringe Wahrscheinlichkeit, unsicher zu sein |
MITTEL | Inhalte haben eine mittlere Wahrscheinlichkeit, unsicher zu sein |
HOCH | Inhalte haben eine hohe Wahrscheinlichkeit, unsicher zu sein |
Schweregrad des Sicherheitsattributs
Jedem der vier Sicherheitsattribute wird eine Sicherheitsbewertung (Schweregrad) und ein Schweregrad zwischen 0,0 und 1,0 zugewiesen, gerundet auf eine Dezimalstelle. Die Bewertungen in der folgenden Tabelle spiegeln den vorhergesagten Schweregrad der Inhalte wider, die zu einer bestimmten Kategorie gehören:
Schweregrad | Beschreibung |
---|---|
Vernachlässigbar | Der Schweregrad der Inhalte wird in Bezug auf die Sicherheitsrichtlinien von Google als vernachlässigbar vorhergesagt. |
NIEDRIG | Der Schweregrad der Inhalte wird in Bezug auf die Sicherheitsrichtlinien von Google als niedrig vorhergesagt. |
MITTEL | Der Schweregrad des Inhalts wird in Bezug auf die Sicherheitsrichtlinien von Google als mittel vorhergesagt. |
HOCH | Der Schweregrad der Inhalte wird in Bezug auf die Sicherheitsrichtlinien von Google als hoch vorhergesagt. |
Sicherheitseinstellungen
Sicherheitseinstellungen sind Teil der Anfrage, die Sie an den API-Dienst senden. Sie können für jede Anfrage an die API angepasst werden. In der folgenden Tabelle werden die Blockierungseinstellungen beschrieben, die Sie für jede Kategorie anpassen können. Wenn Sie beispielsweise die Blockierungseinstellung für die Kategorie Gefährliche Inhalte auf Wenige blockieren setzen, werden alle Inhalte blockiert, die mit hoher Wahrscheinlichkeit gefährliche Inhalte enthalten. Alles mit einer geringeren Wahrscheinlichkeit ist aber zulässig. Wenn nichts festgelegt ist, wird die Standardeinstellung Einige blockieren verwendet.
Grenzwert (Studio) | Grenzwert (API) | Grenzwert (Beschreibung) |
---|---|---|
BLOCK_NONE (Eingeschränkt) | Wird unabhängig von der Wahrscheinlichkeit unsicherer Inhalte immer angezeigt. | |
Wenige blockieren | BLOCK_ONLY_HIGH | Blockieren, wenn die Wahrscheinlichkeit von unsicheren Inhalten hoch ist. |
Einige blockieren (Standard) | BLOCK_MEDIUM_AND_ABOVE (Standard) | Blockieren, wenn die Wahrscheinlichkeit von unsicheren Inhalten mit mittlerer oder hoher Wahrscheinlichkeit ist. |
Meiste blockieren | BLOCK_LOW_AND_ABOVE | Blockieren, wenn die Wahrscheinlichkeit von unsicheren Inhalten mit mittlerer oder hoher Wahrscheinlichkeit ist. |
HARM_BLOCK_THRESHOLD_UNSPECIFIED | Der Grenzwert ist nicht angegeben, nach dem Standardschwellenwert blockieren. |
Sie können diese Einstellungen für jede Anfrage an den Textdienst ändern. Weitere Informationen finden Sie in der API-Referenz zu HarmBlockThreshold.
So entfernen Sie die automatische Antwortblockierung für ausgewählte Sicherheitsattribute
Die Sicherheitseinstellung „BLOCK_NONE“ entfernt die automatische Antwortblockierung (für die Sicherheitsattribute, die unter „Sicherheitseinstellungen“ beschrieben werden) und ermöglichen Ihnen, Ihre eigenen Sicherheitsrichtlinien mit den zurückgegebenen Werten zu konfigurieren. Für den Zugriff auf die Einstellung „BLOCK_NONE“ haben Sie zwei Möglichkeiten:
(1) Sie können die Zulassungsliste über das Formular zur Zulassungsliste für Gemini-Sicherheitsfilter beantragen.
(2) Sie können Ihren Kontotyp über die Referenz für die Rechnungsstellung für die GCP auf monatliche Rechnungsstellung umstellen.
Hauptunterschiede zwischen Gemini und anderen Modellfamilien
Während dieselben Sicherheitsklassifikatoren auf Gemini und PaLM angewendet werden, kann die Anzahl der in der API zurückgegebenen Sicherheitsattribute je nach Modellfamilie variieren. Die Blockierungslogik, also der Konfidenzschwellenwert, basiert auf einer strengen Bewertung jedes Modells. Daher entspricht eine Sicherheitseinstellung, die auf ein Modell angewendet wird, möglicherweise nicht perfekt dem Verhalten einer Sicherheitseinstellung, die auf ein anderes Modell angewendet wird. Wenn dies ein Problem darstellt, empfehlen wir Ihnen, eine eigene Blockierlogik mit Rohschweregradwerten und Rohkonfidenzwerten zu konfigurieren und dabei dieselben Bewertungsgrenzwerte auf alle Modelle anzuwenden.
Grenzwerte konfigurieren
Python
Informationen zum Installieren oder Aktualisieren von Python finden Sie unter Vertex AI SDK für Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Java
Bevor Sie dieses Beispiel anwenden, folgen Sie den Java-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Java API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Go
Bevor Sie dieses Beispiel anwenden, folgen Sie den Go-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Go API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
C#
Bevor Sie dieses Beispiel anwenden, folgen Sie den C#-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI C# API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Die Region, in der die Anfrage verarbeitet werden soll. Folgende Optionen sind verfügbar:
Klicken, um verfügbare Regionen zu maximieren
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- PROJECT_ID: Ihre Projekt-ID.
- MODEL_ID: Die Modell-ID des multimodalen Modells, das Sie verwenden möchten. Folgende Optionen sind verfügbar:
gemini-1.0-pro
gemini-1.0-pro-vision
- ROLE: Die Rolle in einer Unterhaltung, die mit dem Inhalt verknüpft ist. Die Angabe einer Rolle ist auch bei Anwendungsfällen mit nur einem Schritt erforderlich.
Unter anderem sind folgende Werte zulässig:
USER
: Gibt Inhalte an, die von Ihnen gesendet werdenMODEL
: Gibt die Antwort des Modells an.
- TEXT: Die Textanleitung, die in den Prompt eingefügt werden soll.
- SAFETY_CATEGORY:
Die Sicherheitskategorie, für die ein Schwellenwert konfiguriert wird. Unter anderem sind folgende Werte zulässig:
Zum Maximieren von Sicherheitskategorien klicken
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD: Der Schwellenwert für das Blockieren von Antworten, die basierend auf der Wahrscheinlichkeit zur angegebenen Sicherheitskategorie gehören könnten. Unter anderem sind folgende Werte zulässig:
Zum Maximieren der Grenzwerte für die Blockierung klicken
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
blockiert am meisten, währendBLOCK_ONLY_HIGH
am wenigsten blockiert.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
JSON-Text der Anfrage:
{ "contents": { "role": "ROLE", "parts": { "text": "TEXT" } }, "safety_settings": { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" }, }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent" | Select-Object -Expand Content
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Beispiel: cURL-Befehls
LOCATION="us-central1"
MODEL_ID="gemini-1.0-pro"
PROJECT_ID="test-project"
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/publishers/google/models/${MODEL_ID}:streamGenerateContent -d \
$'{
"contents": {
"role": "user",
"parts": { "text": "Hello!" }
},
"safety_settings": [
{
"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
"threshold": "BLOCK_NONE"
},
{
"category": "HARM_CATEGORY_HATE_SPEECH",
"threshold": "BLOCK_LOW_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_HARASSMENT",
"threshold": "BLOCK_MEDIUM_AND_ABOVE"
},
{
"category": "HARM_CATEGORY_DANGEROUS_CONTENT",
"threshold": "BLOCK_ONLY_HIGH"
}
]
}'
Console
Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console die Seite Vertex AI Studio auf.
Klicken Sie unter Neuen Prompt erstellen auf eine der Schaltflächen, um die Seite zum Prompt-Design zu öffnen.
Klicken Sie auf Sicherheitseinstellungen.
Das Dialogfeld Sicherheitseinstellungen wird geöffnet.
Konfigurieren Sie für jedes Sicherheitsattribut den gewünschten Grenzwert.
Klicken Sie auf Speichern.
Nächste Schritte
- Weitere Informationen zu verantwortungsbewusster Anwendung von KI
- Data Governance