En este documento, se describe cómo resolver errores que puedes encontrar cuando desarrollas una aplicación.
Los esquemas de operación están vacíos
Si tu aplicación muestra una lista vacía de .operation_schemas()
, podría
puede deberse a uno de los siguientes problemas:
Errores en la generación de un esquema durante la creación de la aplicación
Problema:
Cuando implementes tu aplicación, recibirás una advertencia similar a la siguiente:
WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class
Causa posible:
Esta advertencia puede aparecer si implementas una aplicación con la plantilla
LangchainAgent
creada previamente en una versión de google-cloud-aiplatform
que es
anterior a 1.49.0
. Para verificar qué versión estás usando, ejecuta el siguiente
comando en la terminal:
pip show google-cloud-aiplatform
Solución recomendada:
Ejecuta el siguiente comando en la terminal para actualizar tu
paquete google-cloud-aiplatform
:
pip install google-cloud-aiplatform --upgrade
Después de actualizar el paquete google-cloud-aiplatform
, ejecuta el siguiente comando
para verificar que la versión sea 1.49.0
o posterior:
pip show google-cloud-aiplatform
Si estás en una instancia de notebook (por ejemplo, Jupyter, Colab o Workbench),
es posible que debas reiniciar tu entorno de ejecución para usar el paquete actualizados. Una vez que hayas
verificado que la versión de google-cloud-aiplatform
es 1.49.0
o posterior, intenta
implementar tu aplicación nuevamente.
Se produjo un error PermissionDenied
cuando se consultaba la aplicación
Es posible que consulta falle si no tienes los permisos necesarios.
Permisos de LLM
Problema:
Es posible que recibas un error PermissionDenied
similar al siguiente:
PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
key: "permission"
value: "aiplatform.endpoints.predict"
}
metadata {
key: "resource"
value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]
Causa posible:
Es posible que tu cuenta de servicio no tenga los permisos adecuados para consultar tu modelo de lenguaje grande (LLM).
Solución recomendada:
Asegúrate de que tu cuenta de servicio tenga los permisos de Identity and Access Management (IAM)
adecuados y enumerados en el mensaje de error. Un ejemplo de un permiso de IAM
que te puede faltar es aiplatform.endpoints.predict
. Consulta Configura los permisos de tu agente de servicio
para obtener más información.
No se pudo ejecutar Reasoning Engine
Si recibes el mensaje de error "Reasoning Engine Execution failed" cuando consultas tu aplicación, es posible que se deba a uno de los problemas que se describen en esta sección.
Entradas no válidas para .query()
Problema:
Es posible que recibas un error FailedPrecondition
similar al siguiente:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}
Causa posible:
Este error se produce cuando especificas las entradas para la consulta como
argumentos posicionales en lugar de argumentos de palabras clave. Por ejemplo, llamas a agent.query(query_str)
en lugar de agent.query(input=query_str)
.
Solución recomendada:
Cuando consultes una instancia de un motor de razonamiento que se implementó, especifica todas las entradas como argumentos de palabras clave.
Sin cuota de modelos de Gemini
Problema:
Es posible que recibas un error similar a uno de los siguientes, lo que indica que el error se genera desde la llamada a Gemini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}
o un mensaje de error diferente:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}
Causa posible:
Esto puede ocurrir si enviaste demasiadas solicitudes recientemente y agotaste la cuota del modelo de Gemini.
Solución recomendada:
Sigue el proceso de administración de cuotas del modelo Gemini para aumentar la cuota. Como alternativa, aplica un límite de frecuencia a tus pruebas y vuelve a intentarlo más tarde.