Resolver problemas de uso de um aplicativo

Neste documento, descrevemos como resolver erros que podem ser encontrados ao desenvolver um aplicativo.

Os esquemas da operação estão vazios

Caso seu aplicativo retorne uma lista vazia de .operation_schemas(), isso pode ser causado por um dos seguintes problemas:

Falha ao gerar um esquema durante a criação do aplicativo

Problema:

Ao implantar seu aplicativo, você receberá um aviso semelhante ao seguinte:

WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class

Possível causa:

Esse aviso poderá ocorrer se você implantar um aplicativo usando o modelo LangchainAgent pré-criado em uma versão de google-cloud-aiplatform anterior à 1.49.0. Para verificar qual versão você está usando, execute o seguinte comando no seu terminal:

pip show google-cloud-aiplatform

Solução recomendada:

Execute o seguinte comando no terminal para atualizar o pacote google-cloud-aiplatform:

pip install google-cloud-aiplatform --upgrade

Depois de atualizar o pacote google-cloud-aiplatform, execute o seguinte comando para verificar se a versão é 1.49.0 ou mais recente:

pip show google-cloud-aiplatform

No caso de uma instância de notebook (por exemplo, Jupyter, Colab ou Workbench), talvez seja necessário reiniciar o ambiente de execução para usar os pacotes atualizados. Depois de verificar que sua versão do google-cloud-aiplatform é 1.49.0 ou mais recente, tente implantar o aplicativo de novo.

Erro PermissionDenied ao consultar seu aplicativo

Sua consulta pode falhar se você não tiver as permissões necessárias.

Permissões do LLM

Problema:

Talvez você receba um erro PermissionDenied semelhante ao seguinte:

PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource 
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
  key: "permission"
  value: "aiplatform.endpoints.predict"
}
metadata {
  key: "resource"
  value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]

Possível causa:

Talvez sua conta de serviço não tenha as permissões adequadas para consultar o modelo de linguagem grande (LLM).

Solução recomendada:

Verifique se a conta de serviço tem as permissões de gerenciamento de identidade e acesso (IAM) apropriadas listadas na mensagem de erro. Um exemplo de permissão do IAM que talvez esteja faltando é aiplatform.endpoints.predict. Consulte Configurar as permissões do agente de serviço para mais informações.

Falha na execução do mecanismo de raciocínio

Se você receber a mensagem de erro "Falha na execução do mecanismo de raciocínio" ao consultar seu aplicativo, talvez seja devido a um dos problemas descritos nesta seção.

Entradas inválidas para .query()

Problema:

Talvez você receba um erro FailedPrecondition semelhante ao seguinte:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}

Possível causa:

Esse erro ocorre quando você especifica as entradas para a consulta como argumentos posicionais no lugar de argumentos de palavra-chave. Por exemplo, você chama agent.query(query_str) no lugar de agent.query(input=query_str).

Solução recomendada:

Ao consultar uma instância de um mecanismo de raciocínio que foi implantado, especifique todas as entradas como argumentos de palavra-chave.

Fora da cota de modelos do Gemini

Problema:

Talvez você receba um erro semelhante àqueles a seguir, que indica que o erro foi gerado pela chamada para o Gemini:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}

ou uma mensagem de erro diferente:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}

Possível causa:

Isso pode acontecer ao enviar muitas solicitações recentemente e usar toda a cota de modelos do Gemini.

Solução recomendada:

Siga o processo de gerenciamento de cotas de modelos do Gemini para aumentar a cota. Uma alternativa é limitar a taxa dos testes e tentar novamente mais tarde.