Neste documento, descrevemos como resolver erros que podem ser encontrados ao desenvolver um aplicativo.
Os esquemas da operação estão vazios
Caso seu aplicativo retorne uma lista vazia de .operation_schemas()
, isso pode
ser causado por um dos seguintes problemas:
Falha ao gerar um esquema durante a criação do aplicativo
Problema:
Ao implantar seu aplicativo, você receberá um aviso semelhante ao seguinte:
WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class
Possível causa:
Esse aviso poderá ocorrer se você implantar um aplicativo usando o modelo
LangchainAgent
pré-criado em uma versão de google-cloud-aiplatform
anterior à 1.49.0
. Para verificar qual versão você está usando, execute o seguinte comando no seu terminal:
pip show google-cloud-aiplatform
Solução recomendada:
Execute o seguinte comando no terminal para atualizar o
pacote google-cloud-aiplatform
:
pip install google-cloud-aiplatform --upgrade
Depois de atualizar o pacote google-cloud-aiplatform
, execute o seguinte
comando para verificar se a versão é 1.49.0
ou mais recente:
pip show google-cloud-aiplatform
No caso de uma instância de notebook (por exemplo, Jupyter, Colab ou Workbench),
talvez seja necessário reiniciar o ambiente de execução para usar os pacotes atualizados. Depois de verificar
que sua versão do google-cloud-aiplatform
é 1.49.0
ou mais recente, tente
implantar o aplicativo de novo.
Erro PermissionDenied
ao consultar seu aplicativo
Sua consulta pode falhar se você não tiver as permissões necessárias.
Permissões do LLM
Problema:
Talvez você receba um erro PermissionDenied
semelhante ao seguinte:
PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
key: "permission"
value: "aiplatform.endpoints.predict"
}
metadata {
key: "resource"
value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]
Possível causa:
Talvez sua conta de serviço não tenha as permissões adequadas para consultar o modelo de linguagem grande (LLM).
Solução recomendada:
Verifique se a conta de serviço tem as permissões de gerenciamento de identidade e acesso (IAM)
apropriadas listadas na mensagem de erro. Um exemplo de permissão do IAM
que talvez esteja faltando é aiplatform.endpoints.predict
. Consulte Configurar as permissões do agente de serviço para mais informações.
Falha na execução do mecanismo de raciocínio
Se você receber a mensagem de erro "Falha na execução do mecanismo de raciocínio" ao consultar seu aplicativo, talvez seja devido a um dos problemas descritos nesta seção.
Entradas inválidas para .query()
Problema:
Talvez você receba um erro FailedPrecondition
semelhante ao seguinte:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}
Possível causa:
Esse erro ocorre quando você especifica as entradas para a consulta como argumentos posicionais no lugar de argumentos de palavra-chave. Por exemplo, você chama agent.query(query_str)
no lugar de agent.query(input=query_str)
.
Solução recomendada:
Ao consultar uma instância de um mecanismo de raciocínio que foi implantado, especifique todas as entradas como argumentos de palavra-chave.
Fora da cota de modelos do Gemini
Problema:
Talvez você receba um erro semelhante àqueles a seguir, que indica que o erro foi gerado pela chamada para o Gemini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}
ou uma mensagem de erro diferente:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}
Possível causa:
Isso pode acontecer ao enviar muitas solicitações recentemente e usar toda a cota de modelos do Gemini.
Solução recomendada:
Siga o processo de gerenciamento de cotas de modelos do Gemini para aumentar a cota. Uma alternativa é limitar a taxa dos testes e tentar novamente mais tarde.