Para usar as bibliotecas OpenAI Python, instale o OpenAI SDK:
pip install openai
Para autenticar com a API Chat Completions, você pode modificar a configuração do cliente ou alterar a configuração do ambiente para usar a autenticação do Google e um endpoint da Vertex AI. Escolha o método mais fácil e siga as etapas de configuração, dependendo se você quer chamar modelos do Gemini ou do Model Garden autoimplantado.
Certos modelos no Grupo de modelos e
modelos Hugging Face com suporte
precisam ser
implantadas em um endpoint da Vertex AI
antes de veicular solicitações.
Ao
chamar esses modelos autoimplantados da API Chat Completions, é necessário
especificar o ID do endpoint. Para listar seus
endpoints atuais da Vertex AI, use o
comando gcloud ai endpoints list
.
Configuração do cliente
Para obter credenciais do Google de maneira programática em Python, use o
SDK Python google-auth
:
pip install google-auth requests
Python
Antes de testar esse exemplo, siga as instruções de configuração para Python no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Python.
Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.
Por padrão, os tokens de acesso da conta de serviço duram 1 hora. Você pode
prolongar a vida útil dos tokens de acesso da conta de serviço
ou atualizar periodicamente o token e atualizar a variável openai.api_key
.
Variáveis de ambiente
Instale a CLI do Google Cloud. A biblioteca OpenAI pode
ler as variáveis
de ambiente OPENAI_API_KEY
e OPENAI_BASE_URL
para alterar a autenticação e o endpoint no cliente padrão.
Configure as variáveis a seguir:
$ export PROJECT_ID=PROJECT_ID
$ export LOCATION=LOCATION
$ export OPENAI_API_KEY="$(gcloud auth application-default print-access-token)"
Para chamar um modelo do Gemini, defina o MODEL_ID
e use o endpoint openapi
:
$ export MODEL_ID=MODEL_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/openapi"
Para chamar um modelo autoimplantado do Model Garden, defina a variável ENDPOINT
e use-a no URL:
$ export ENDPOINT=ENDPOINT_ID
$ export OPENAI_BASE_URL="https://${LOCATION}-aiplatform.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/${LOCATION}/endpoints/${ENDPOINT}"
Em seguida, inicialize o cliente:
client = openai.OpenAI()
A API Gemini Chat Completions usa OAuth para autenticação
com um
token de acesso de curta duração.
Por padrão, os tokens de acesso da conta de serviço duram 1 hora. Você pode
prolongar a vida útil dos tokens de acesso da conta de serviço
ou atualizar periodicamente o token e atualizar a variável openai.api_key
.
Atualizar suas credenciais
O exemplo a seguir mostra como atualizar suas credenciais automaticamente como necessário:
Python
A seguir
- Veja exemplos de como chamar a API Chat Completions com a sintaxe compatível com OpenAI.
- Veja exemplos de como chamar a API Inference com a sintaxe compatível com OpenAI.
- Veja exemplos de como chamar a API Function Calling com sintaxe compatível com OpenAI.
- Saiba mais sobre a API Gemini.
- Saiba mais sobre como migrar do Azure OpenAI para a API Gemini.