Questo documento descrive come risolvere gli errori che potresti riscontrare quando utilizzi un'applicazione.
Gli schemi di operazioni sono vuoti
Se la tua applicazione restituisce un elenco vuoto da .operation_schemas()
, il motivo potrebbe essere uno dei seguenti problemi:
Errore durante la generazione di uno schema durante la creazione dell'applicazione
Problema:
Quando esegui il deployment dell'applicazione, ricevi un avviso simile al seguente:
WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class
Possibile causa:
Questo avviso potrebbe verificarsi se esegui il deployment di un'applicazione utilizzando il modello predefinito LangchainAgent
su una versione di google-cloud-aiplatform
precedente a 1.49.0
. Per controllare la versione in uso, esegui il seguente
comando nel terminale:
pip show google-cloud-aiplatform
Soluzione consigliata:
Esegui questo comando nel terminale per aggiornare il pacchetto google-cloud-aiplatform
:
pip install google-cloud-aiplatform --upgrade
Dopo aver aggiornato il pacchetto google-cloud-aiplatform
, esegui il seguente
comando per verificare che la versione sia 1.49.0
o successiva:
pip show google-cloud-aiplatform
Se sei in un'istanza del blocco note (ad esempio Jupyter, Colab o Workbench),
potresti dover riavviare il runtime per utilizzare il pacchetto aggiornato. Dopo aver confermato che la tua versione di google-cloud-aiplatform
è 1.49.0
o successiva, prova a eseguire di nuovo il deployment dell'applicazione.
Errore PermissionDenied
durante la query dell'applicazione
La query potrebbe non riuscire se non disponi delle autorizzazioni richieste.
Autorizzazioni LLM
Problema:
Potresti ricevere un errore PermissionDenied
simile al seguente:
PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
key: "permission"
value: "aiplatform.endpoints.predict"
}
metadata {
key: "resource"
value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]
Possibile causa:
Il tuo account di servizio potrebbe non disporre delle autorizzazioni appropriate per eseguire query sul tuo modello linguistico di grandi dimensioni (LLM).
Soluzione consigliata:
Assicurati che l'account di servizio disponga delle autorizzazioni IAM (Identity and Access Management) appropriate elencate nel messaggio di errore. Un esempio di autorizzazione IAM
che potrebbe mancare è aiplatform.endpoints.predict
. Per ulteriori informazioni, consulta Configurare le autorizzazioni dell'agente di servizio.
Esecuzione del motore di ragionamento non riuscita
Se ricevi il messaggio di errore "Reasoning Engine Execution failed" (Esecuzione del motore di ragionamento non riuscita) quando esegui query sulla tua applicazione, il problema potrebbe essere uno dei problemi descritti in questa sezione.
Input non validi per .query()
Problema:
Potresti ricevere un errore FailedPrecondition
simile al seguente:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}
Possibile causa:
Questo errore si verifica quando specifichi gli input della query come argomenti posizionali anziché come argomenti con parole chiave. Ad esempio, chiami
agent.query(query_str)
anziché agent.query(input=query_str)
.
Soluzione consigliata:
Quando esegui una query su un'istanza di un motore di ragionamento di cui è stato eseguito il deployment, specifica tutti gli input come argomenti delle parole chiave.
Superamento della quota di modelli Gemini
Problema:
Potresti ricevere un errore simile a uno dei seguenti, che indica che l'errore viene generato dalla chiamata a Gemini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}
oppure un messaggio di errore diverso:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}
Possibile causa:
Questo può accadere se di recente hai inviato troppe richieste e hai esaurito la quota del modello Gemini.
Soluzione consigliata:
Segui la procedura di gestione delle quote dei modelli Gemini per aumentare la quota. In alternativa, limita la frequenza dei test e riprova più tardi.