FAQ zur Gemini API

In diesem Dokument finden Sie Antworten auf häufig gestellte Fragen zur Gemini API, die in die folgenden Kategorien unterteilt sind:

Modellvergleich

Was ist der Unterschied zwischen PaLM und Gemini?

Gemini-Modelle wurden für multimodale Anwendungen entwickelt. Gemini-Modelle akzeptieren Prompts, die beispielsweise Text und Bilder enthalten, und geben dann eine Textantwort zurück. Gemini unterstützt auch den Funktionsaufruf, mit dem Entwickler eine Beschreibung einer Funktion übergeben können. Anschließend gibt das Modell eine Funktion und Parameter zurück, die der Beschreibung am besten entsprechen. Entwickler können diese Funktion dann in externen APIs und Diensten aufrufen.

PaLM 2-Modelle sind allgemein verfügbar. PaLM 2-Modelle wurden für Sprachanwendungen entwickelt und eignen sich gut für Anwendungsfälle wie die Textzusammenfassung und Textgenerierung. PaLM 2 bietet außerdem vollständige Unterstützung für MLOps-Dienste in Vertex AI, z. B. einen Direktvergleich und das Modell-Monitoring, die mit Gemini nicht verfügbar sind.

Mit Vertex AI Studio können Sie sowohl Gemini- als auch PaLM 2-Modelle mit vollständiger Datenkontrolle anpassen und die Sicherheits-, Datenschutz-, Data Governance- und Compliance-Unterstützung von Google Cloud nutzen. Prompts und Feinabstimmung von Daten sowohl für Gemini als auch PaLM 2 werden nie zum Trainieren oder Verbessern unserer Foundation Models verwendet.

Warum sollten Sie PaLM gegenüber Gemini wählen?

Für Anwendungsfälle, die ausschließlich die Eingabe-Ausgabe von Text erfordern, z. B. Textzusammenfassung, Textgenerierung und Q&A, können PaLM 2-Modelle ausreichend hochwertige Antworten bereitstellen.

Gemini-Modelle eignen sich gut für Anwendungsfälle, die multimodale Eingaben erfordern, Funktionsaufrufe erfordern oder komplexe Prompt-Techniken benötigen (z. B. Chain-of-Thought und Befolgung komplexer Anweisungen).

Wird PaLM 2 verworfen?

Es ist nicht geplant, PaLM 2 einzustellen.

Was ist der Unterschied zwischen der Imagen in Vertex AI und der Gemini API für Vision-Anwendungsfälle?

Imagen ist ein Vision-Modell für Bilderstellung, -Bearbeitung, -Untertitelung und Fragen und Antworten-Anwendungsfälle. Im Rahmen Ihrer Prompts kann Gemini mehrere Bilder oder ein Video entgegennehmen und Antworten auf Ihre Eingaben liefern, wobei Imagen nur ein einziges Eingabebild aufnehmen kann. Gemini unterstützt die Bildgenerierung oder die Bildbearbeitung nicht.

Was ist der Unterschied zwischen den Vertex AI Codey APIs und der Gemini API für die Codierung?

Codey APIs wurden speziell für Codegenerierung, Codeabschluss und Codechat entwickelt. Die Codey APIs werden von Gemini und anderen von Google entwickelten Modellen unterstützt. Sie können die APIs im gesamten Lebenszyklus der Softwareentwicklung verwenden, indem Sie sie in IDEs, CI/CD-Workflows, Dashboards und andere Anwendungen einbinden. Sie können die Modelle auch mit Ihrer Codebasis anpassen. Wir raten davon ab, Gemini 1.0 Pro Vision für die Codegenerierung zu verwenden.

Wie sende ich einen Prompt an das Gemini 1.0 Pro oder Gemini 1.0 Pro Vision-Modell?

Es gibt verschiedene Methoden, um Anfragen an die Gemini API zu senden. Sie können beispielsweise die Google Cloud Console, ein SDK für Programmiersprachen oder die REST API verwenden, um Anfragen an gemini-1.0-pro (Gemini 1.0 Pro) oder gemini-1.0-pro-vision (Gemini 1.0 Pro Vision) zu senden.

Eine Einführung finden Sie im Hilfeartikel Gemini API testen.

Ist Feinabstimmung für Gemini verfügbar?

Sie können Version 002 der stabilen Version von Gemini 1.0 Pro (gemini-1.0-pro-002) optimieren. Weitere Informationen finden Sie unter Übersicht über die Modelloptimierung für Gemini.

Sicherheit und Datennutzung

Warum werden meine Antworten blockiert?

Die Generative AI in Vertex AI verwendet Sicherheitsfilter, um potenziell schädliche Antworten zu verhindern. Sie können diesen Schwellenwert für Sicherheitsfilter anpassen. Weitere Informationen finden Sie unter Responsible AI.

Wie werden meine Eingabedaten verwendet?

Google stellt sicher, dass seine Teams sich durch strenge Data-Governance-Praktiken an unsere KI/ML-Datenschutzverpflichtung halten. Dazu gehören auch Prüfungen der Daten, die Google Cloud bei der Entwicklung von Produkten verwendet. Ausführliche Informationen finden Sie unter Generative AI und Data Governance.

Werden meine Daten im Cache gespeichert?

Google kann die Ein- und Ausgaben eines Kunden für Gemini-Modelle im Cache speichern, um Antworten auf nachfolgende Prompts des Kunden zu beschleunigen. Im Cache gespeicherte Inhalte werden bis zu 24 Stunden gespeichert. Standardmäßig ist das Daten-Caching für jedes Google Cloud-Projekt aktiviert. Für alle Regionen gelten die gleichen Cache-Einstellungen für ein Google Cloud-Projekt. Mit den folgenden curl-Befehlen können Sie den Caching-Status abrufen, das Caching deaktivieren oder das Caching wieder aktivieren. Weitere Informationen finden Sie unter Vorhersage auf der Seite "Generative AI und Data Governance". Wenn Sie das Caching deaktivieren oder wieder aktivieren, gilt die Änderung für alle Google Cloud-Regionen. Weitere Informationen zur Verwendung von Identity and Access Management zum Gewähren von Berechtigungen, die zum Aktivieren oder Deaktivieren des Cachings erforderlich sind, finden Sie unter Vertex Generative AI Zugriffssteuerung mit IAM. Maximieren Sie die folgenden Abschnitte, um zu erfahren, wie Sie die aktuelle Cache-Einstellung abrufen, das Caching deaktivieren und das Caching aktivieren.

Aktuelle Caching-Einstellung abrufen

Führen Sie den folgenden Befehl aus, um festzustellen, ob Caching für ein Projekt aktiviert oder deaktiviert ist. Zum Ausführen dieses Befehls muss einem Nutzer eine der folgenden Rollen zugewiesen sein: roles/aiplatform.viewer, roles/aiplatform.user oder roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# GetCacheConfig
$ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig

# Response if caching is enabled (caching is enabled by default).
{
  "name": "projects/PROJECT_ID/cacheConfig"
}

# Response if caching is disabled.
{
  "name": "projects/PROJECT_ID/cacheConfig"
  "disableCache": true
}
    

Caching deaktivieren

Führen Sie den folgenden curl-Befehl aus, um das Caching für ein Google Cloud-Projekt zu aktivieren. Zum Ausführen dieses Befehls muss einem Nutzer die Administratorrolle roles/aiplatform.admin für Vertex Generative AI zugewiesen sein.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt-out of caching.
$ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": true
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Caching aktivieren

Wenn Sie das Caching für ein Google Cloud-Projekt deaktiviert haben und es wieder aktivieren möchten, führen Sie den folgenden curl-Befehl aus. Zum Ausführen dieses Befehls muss einem Nutzer die Administratorrolle roles/aiplatform.admin für Vertex Generative AI zugewiesen sein.

PROJECT_ID=PROJECT_ID
LOCATION_ID="us-central1"
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt in to caching.
$ curl -X PATCH     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": false
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Migration

Wie migriere ich Gemini in Google AI Studio zu Vertex AI Studio?

Die Migration zur Vertex AI-Plattform von Google Cloud bietet eine Reihe von MLOps-Tools, die Nutzung, Bereitstellung und Monitoring von KI-Modellen im Hinblick auf Effizienz und Zuverlässigkeit optimieren. Importieren Sie zum Migrieren Ihrer Arbeit zu Vertex AI Ihre vorhandenen Daten und laden Sie sie in Vertex AI Studio hoch und verwenden Sie die Vertex AI Gemini API. Weitere Informationen finden Sie unter Von Gemini auf Google AI zu Vertex AI migrieren.

Wie kann ich von PaML 2 zur Vertex AI Gemini API als zugrunde liegendes Modell wechseln?

Sie müssen keine größeren Architekturänderungen an Ihren Anwendungen vornehmen, wenn Sie von PaLM-Modellen zu Gemini-Modellen wechseln. Aus der API-Perspektive erfordert der Wechsel von einem Modell zu einem anderen das Ändern einer einzelnen Codezeile oder das Aktualisieren des SDK. Weitere Informationen finden Sie unter Von der PaLM API zur Vertex AI Gemini API migrieren.

Da die Antworten zwischen Modellen variieren können, empfehlen wir Ihnen, Prompt-Tests durchzuführen, um die Antworten von PaLM- und Gemini-Modellen zu vergleichen, um zu prüfen, ob die Antworten Ihre Erwartungen erfüllen.

Verfügbarkeit und Preisgestaltung

An welchen Standorten ist Gemini verfügbar?

Gemini 1.0 Pro und Gemini 1.0 Pro Vision sind in den Regionen Asien, USA und Europa verfügbar. Weitere Informationen finden Sie unter Generative AI in Vertex AI-Standorten.

Gibt es eine kostenlose Bewertungsstufe für die Vertex AI Gemini API?

Wenden Sie sich an Ihren Google Cloud-Ansprechpartner, um weitere Informationen zu erhalten.

Welche Preise gelten für die Vertex AI Gemini API?

Preisinformationen zu Gemini-Modellen finden Sie im Abschnitt Multimodal für Generative AI für Vertex AI.

Wie erhalte ich Zugriff auf Gemini Ultra?

Wenden Sie sich an Ihren Google-Kundenbetreuer, um Zugriff anzufordern.

Kontingente

Wie behebe ich einen Kontingentfehler (429) beim Senden von API-Anfragen?

Es besteht entweder eine übermäßige Nachfrage oder die Anfrage hat Ihr projektbezogenes Kontingent überschritten. Prüfen Sie, ob Ihre Anfragerate unter dem Kontingent für Ihr Projekt liegt. Sie können sich Ihre Projektkontingente in der Google Cloud Console auf der Seite Kontingente ansehen. Weitere Informationen finden Sie unter Generative AI auf Vertex AI – Kontingente und Limits.

Wie kann ich meine Projektkontingente für Gemini erhöhen?

Sie können eine Erhöhung über die Google Cloud Console anfordern. Weitere Informationen finden Sie unter Generative AI auf Vertex AI – Kontingente und Limits.