Soluciona problemas con una aplicación

En este documento, se describe cómo resolver errores que puedes encontrar cuando desarrollas una aplicación.

Los esquemas de operación están vacíos

Si tu aplicación muestra una lista vacía de .operation_schemas(), podría puede deberse a uno de los siguientes problemas:

Errores en la generación de un esquema durante la creación de la aplicación

Problema:

Cuando implementes tu aplicación, recibirás una advertencia similar a la siguiente:

WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class

Causa posible:

Esta advertencia puede aparecer si implementas una aplicación con la plantilla LangchainAgent creada previamente en una versión de google-cloud-aiplatform que es anterior a 1.49.0. Para verificar qué versión estás usando, ejecuta el siguiente comando en la terminal:

pip show google-cloud-aiplatform

Solución recomendada:

Ejecuta el siguiente comando en la terminal para actualizar tu paquete google-cloud-aiplatform:

pip install google-cloud-aiplatform --upgrade

Después de actualizar el paquete google-cloud-aiplatform, ejecuta el siguiente comando para verificar que la versión sea 1.49.0 o posterior:

pip show google-cloud-aiplatform

Si estás en una instancia de notebook (por ejemplo, Jupyter, Colab o Workbench), es posible que debas reiniciar tu entorno de ejecución para usar el paquete actualizados. Una vez que hayas verificado que la versión de google-cloud-aiplatform es 1.49.0 o posterior, intenta implementar tu aplicación nuevamente.

Se produjo un error PermissionDenied cuando se consultaba la aplicación

Es posible que consulta falle si no tienes los permisos necesarios.

Permisos de LLM

Problema:

Es posible que recibas un error PermissionDenied similar al siguiente:

PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource 
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
  key: "permission"
  value: "aiplatform.endpoints.predict"
}
metadata {
  key: "resource"
  value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]

Causa posible:

Es posible que tu cuenta de servicio no tenga los permisos adecuados para consultar tu modelo de lenguaje grande (LLM).

Solución recomendada:

Asegúrate de que tu cuenta de servicio tenga los permisos de Identity and Access Management (IAM) adecuados y enumerados en el mensaje de error. Un ejemplo de un permiso de IAM que te puede faltar es aiplatform.endpoints.predict. Consulta Configura los permisos de tu agente de servicio para obtener más información.

No se pudo ejecutar Reasoning Engine

Si recibes el mensaje de error "Reasoning Engine Execution failed" cuando consultas tu aplicación, es posible que se deba a uno de los problemas que se describen en esta sección.

Entradas no válidas para .query()

Problema:

Es posible que recibas un error FailedPrecondition similar al siguiente:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}

Causa posible:

Este error se produce cuando especificas las entradas para la consulta como argumentos posicionales en lugar de argumentos de palabras clave. Por ejemplo, llamas a agent.query(query_str) en lugar de agent.query(input=query_str).

Solución recomendada:

Cuando consultes una instancia de un motor de razonamiento que se implementó, especifica todas las entradas como argumentos de palabras clave.

Sin cuota de modelos de Gemini

Problema:

Es posible que recibas un error similar a uno de los siguientes, lo que indica que el error se genera desde la llamada a Gemini:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}

o un mensaje de error diferente:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}

Causa posible:

Esto puede ocurrir si enviaste demasiadas solicitudes recientemente y agotaste la cuota del modelo de Gemini.

Solución recomendada:

Sigue el proceso de administración de cuotas del modelo Gemini para aumentar la cuota. Como alternativa, aplica un límite de frecuencia a tus pruebas y vuelve a intentarlo más tarde.