Wenn Sie die OpenAI Python-Bibliotheken verwenden möchten, installieren Sie das OpenAI SDK:
pip install openai
Für die Authentifizierung bei der Chat Completions API haben Sie folgende Möglichkeiten: Sie können entweder die Client-Einrichtung ändern oder die Umgebungskonfiguration ändern, um die Google-Authentifizierung und einen Vertex AI-Endpunkt zu verwenden. Wählen Sie die Methode aus, die für Sie einfacher ist, und folgen Sie der Anleitung für die Einrichtung, je nachdem, ob Sie Gemini-Modelle oder selbst bereitgestellte Model Garden-Modelle aufrufen möchten.
Bestimmte Modelle in Model Garden und unterstützte Hugging Face-Modelle müssen zuerst auf einem Vertex AI-Endpunkt bereitgestellt werden, bevor sie Anfragen verarbeiten können.
Wenn Sie diese selbst bereitgestellten Modelle über die Chat Completions API aufrufen, müssen Sie die Endpunkt-ID angeben. Verwenden Sie den Befehl gcloud ai endpoints list
, um Ihre vorhandenen Vertex AI-Endpunkte aufzulisten.
Client-Setup
Um Google-Anmeldedaten programmatisch in Python abzurufen, können Sie das google-auth
Python SDK verwenden:
pip install google-auth requests
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Standardmäßig sind Dienstkonto-Zugriffstokens eine Stunde lang gültig. Sie können die Lebensdauer von Dienstkonto-Zugriffstokens verlängern oder das Token regelmäßig aktualisieren und die Variable openai.api_key
updaten.
Umgebungsvariablen
Installieren Sie die Google Cloud CLI. Die OpenAI-Bibliothek kann die Umgebungsvariablen OPENAI_API_KEY
und OPENAI_BASE_URL
lesen, um die Authentifizierung und den Endpunkt im Standardclient zu ändern.
Legen Sie die folgenden Variablen fest:
$ export PROJECT_ID=PROJECT_ID
$ export LOCATION=LOCATION
$ export OPENAI_API_KEY="$(gcloud auth application-default print-access-token)"
Wenn Sie ein Gemini-Modell aufrufen möchten, legen Sie die Variable MODEL_ID
fest und verwenden Sie den Endpunkt openapi
:
$ export MODEL_ID=MODEL_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/openapi"
Wenn Sie ein selbst bereitgestelltes Modell aus Model Garden aufrufen möchten, legen Sie die Variable ENDPOINT
fest und verwenden Sie sie stattdessen in Ihrer URL:
$ export ENDPOINT=ENDPOINT_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${ENDPOINT}"
Initialisieren Sie als Nächstes den Client:
client = openai.OpenAI()
Die Gemini Chat Completions API verwendet OAuth zur Authentifizierung
mit einem kurzlebigen Zugriffstoken.
Standardmäßig sind Dienstkonto-Zugriffstokens eine Stunde lang gültig. Sie können die Lebensdauer von Dienstkonto-Zugriffstokens verlängern oder das Token regelmäßig aktualisieren und die Variable openai.api_key
updaten.
Anmeldedaten aktualisieren
Das folgende Beispiel zeigt, wie Sie Ihre Anmeldedaten bei Bedarf automatisch aktualisieren:
Python
Nächste Schritte
- Hier finden Sie Beispiele für das Aufrufen der Chat Completions API mit der OpenAI-kompatiblen Syntax.
- Hier finden Sie Beispiele für das Aufrufen der Inference API mit der OpenAI-kompatiblen Syntax.
- Hier finden Sie Beispiele für das Aufrufen der Function Calling API mit OpenAI-kompatibler Syntax.
- Weitere Informationen zur Gemini API
- Weitere Informationen zur Migration von Azure OpenAI zur Gemini API