Questo documento descrive come risolvere gli errori che potresti riscontrare durante l'utilizzo di un'applicazione.
Gli schemi di operazioni sono vuoti
Se la tua applicazione restituisce un elenco vuoto da .operation_schemas()
, il motivo potrebbe essere uno dei seguenti problemi:
Errore durante la generazione di uno schema durante la creazione dell'applicazione
Problema:
Quando esegui il deployment dell'applicazione, ricevi un avviso simile al seguente:
WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class
Possibile causa:
Questo avviso potrebbe essere visualizzato se esegui il deployment di un'applicazione utilizzando
LangchainAgent
modello su una versione di google-cloud-aiplatform
il cui
prima del giorno 1.49.0
. Per controllare la versione in uso, esegui il seguente
comando nel terminale:
pip show google-cloud-aiplatform
Soluzione consigliata:
Esegui questo comando nel terminale per aggiornare il pacchetto google-cloud-aiplatform
:
pip install google-cloud-aiplatform --upgrade
Dopo aver aggiornato il pacchetto google-cloud-aiplatform
, esegui il seguente
comando per verificare che la versione sia 1.49.0
o successiva:
pip show google-cloud-aiplatform
Se ti trovi in un'istanza di blocco note (ad esempio Jupyter, Colab o Workbench),
potresti dover riavviare il runtime per utilizzare il pacchetto aggiornato. Dopo aver
verificato che la tua versione di google-cloud-aiplatform
sia 1.49.0
o successiva, prova a
eseguire nuovamente il deployment dell'applicazione.
Errore PermissionDenied
durante la query dell'applicazione
La query potrebbe non riuscire se non disponi delle autorizzazioni richieste.
Autorizzazioni LLM
Problema:
Potresti visualizzare un errore PermissionDenied
simile al seguente:
PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
key: "permission"
value: "aiplatform.endpoints.predict"
}
metadata {
key: "resource"
value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]
Possibile causa:
Il tuo account di servizio potrebbe non disporre delle autorizzazioni appropriate per eseguire query sul tuo modello linguistico di grandi dimensioni (LLM).
Soluzione consigliata:
Assicurati che l'account di servizio disponga delle autorizzazioni IAM (Identity and Access Management) appropriate elencate nel messaggio di errore. Un esempio di configurazione IAM
che potrebbe mancare è: aiplatform.endpoints.predict
. Vedi Configurare le autorizzazioni dell'agente di servizio.
per ulteriori informazioni.
Esecuzione del motore di ragionamento non riuscita
Se viene visualizzato il messaggio di errore "Reasoning Engine Execution non riuscita" durante l'esecuzione di query la tua richiesta, la causa potrebbe essere uno dei problemi descritti in questa sezione.
Input non validi per .query()
Problema:
Potresti ricevere un errore FailedPrecondition
simile al seguente:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}
Possibile causa:
Questo errore si verifica quando specifichi gli input della query come argomenti posizionali anziché come argomenti con parole chiave. Ad esempio, chiamiagent.query(query_str)
anziché agent.query(input=query_str)
.
Soluzione consigliata:
Quando esegui una query su un'istanza di un motore di ragionamento di cui è stato eseguito il deployment, specifica tutti gli input come argomenti delle parole chiave.
Superamento della quota del modello Gemini
Problema:
Potresti ricevere un errore simile a uno dei seguenti, che indica che l'errore viene generato dalla chiamata a Gemini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}
oppure un messaggio di errore diverso:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}
Possibile causa:
Questo può accadere se di recente hai inviato troppe richieste e hai esaurito la quota del modello Gemini.
Soluzione consigliata:
Segui la procedura di gestione delle quote dei modelli Gemini per aumentare la quota. In alternativa, limita la frequenza dei test e riprova più tardi.