Per utilizzare le librerie Python di OpenAI, installa l'SDK OpenAI:
pip install openai
Per l'autenticazione con l'API Chat Completions, puoi modificare la configurazione del client o cambiare la configurazione dell'ambiente per utilizzare l'autenticazione Google e un endpoint Vertex AI. Scegli il metodo più semplice e segui i passaggi per la configurazione a seconda che tu voglia chiamare i modelli Gemini o i modelli Model Garden di cui hai eseguito il deployment autonomo.
Alcuni modelli in Model Garden e
modelli Hugging Face supportati
devono essere
implementati in un endpoint Vertex AI
prima di poter gestire le richieste.
Quando
chiami questi modelli autodeployati dall'API Chat Completions, devi
specificare l'ID endpoint. Per elencare gli endpoint Vertex AI esistenti, utilizza il comando gcloud ai endpoints list
.
Configurazione client
Per ottenere le credenziali Google in modo programmatico in Python, puoi utilizzare l'SDK Python google-auth
:
pip install google-auth requests
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Python.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Per impostazione predefinita, i token di accesso al account di servizio durano 1 ora. Puoi
estendere la durata dei token di accesso all'account di servizio
o aggiornare periodicamente il token e la variabile openai.api_key
.
Variabili di ambiente
Installa Google Cloud CLI. La libreria OpenAI può leggere le variabili di ambiente OPENAI_API_KEY
e OPENAI_BASE_URL
per modificare l'autenticazione e l'endpoint nel client predefinito.
Imposta le seguenti variabili:
$ export PROJECT_ID=PROJECT_ID
$ export LOCATION=LOCATION
$ export OPENAI_API_KEY="$(gcloud auth application-default print-access-token)"
Per chiamare un modello Gemini, imposta la variabile MODEL_ID
e utilizza l'endpoint openapi
:
$ export MODEL_ID=MODEL_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/openapi"
Per chiamare un modello autodeployato da Model Garden, imposta la variabile ENDPOINT
e utilizzala nell'URL:
$ export ENDPOINT=ENDPOINT_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${ENDPOINT}"
Successivamente, inizializza il client:
client = openai.OpenAI()
L'API Gemini Chat Completions utilizza OAuth per l'autenticazione
con un
token di accesso di breve durata.
Per impostazione predefinita, i token di accesso al account di servizio durano 1 ora. Puoi
estendere la durata dei token di accesso all'account di servizio
o aggiornare periodicamente il token e la variabile openai.api_key
.
Aggiornare le credenziali
L'esempio seguente mostra come aggiornare automaticamente le credenziali in base alle esigenze:
Python
Passaggi successivi
- Vedi esempi di chiamata dell'API Chat Completions con la sintassi compatibile con OpenAI.
- Consulta gli esempi di chiamata dell'API Inference con la sintassi compatibile con OpenAI.
- Consulta gli esempi di chiamata dell'API Function Calling con la sintassi compatibile con OpenAI.
- Scopri di più sull'API Gemini.
- Scopri di più sulla migrazione da Azure OpenAI all'API Gemini.