Fehlerbehebung mit einer Anwendung

In diesem Dokument wird beschrieben, wie Sie Fehler beheben können, die beim Verwenden einer Anwendung auftreten können.

Die Vorgangsschemata sind leer.

Wenn Ihre Anwendung eine leere Liste von .operation_schemas() zurückgibt, kann dies an einem der folgenden Probleme liegen:

Fehler beim Generieren eines Schemas während der Anwendungserstellung

Problem:

Beim Bereitstellen Ihrer Anwendung erhalten Sie eine Warnung ähnlich der folgenden:

WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class

Mögliche Ursache:

Diese Warnung kann auftreten, wenn Sie eine Anwendung mit der vorgefertigten LangchainAgent-Vorlage in einer Version von google-cloud-aiplatform bereitstellen, die älter als 1.49.0 ist. Führen Sie folgenden Befehl in Ihrem Terminal aus, um zu prüfen, welche Version Sie verwenden:

pip show google-cloud-aiplatform

Empfohlene Lösung:

Führen Sie im Terminal den folgenden Befehl aus, um Ihr google-cloud-aiplatform-Paket zu aktualisieren:

pip install google-cloud-aiplatform --upgrade

Führen Sie nach dem Aktualisieren des google-cloud-aiplatform-Pakets den folgenden Befehl aus, um zu prüfen, ob die Version 1.49.0 oder höher ist:

pip show google-cloud-aiplatform

Wenn Sie sich in einer Notebookinstanz befinden (z. B. Jupyter, Colab oder Workbench), müssen Sie möglicherweise Ihre Laufzeit neu starten, um das aktualisierte Paket verwenden zu können. Nachdem Sie überprüft haben, dass Ihre Version von google-cloud-aiplatform 1.49.0 oder höher ist, versuchen Sie noch einmal, Ihre Anwendung bereitzustellen.

PermissionDenied-Fehler bei der Abfrage Ihrer Anwendung

Wenn Sie nicht die erforderlichen Berechtigungen haben, schlägt Ihre Abfrage möglicherweise fehl.

LLM-Berechtigungen

Problem:

Möglicherweise erhalten Sie einen PermissionDenied-Fehler, der in etwa so aussieht:

PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource 
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
  key: "permission"
  value: "aiplatform.endpoints.predict"
}
metadata {
  key: "resource"
  value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]

Mögliche Ursache:

Ihr Dienstkonto hat möglicherweise nicht die erforderlichen Berechtigungen, um Ihr Large Language Model (LLM) abzufragen.

Empfohlene Lösung:

Achten Sie darauf, dass Ihr Dienstkonto die in der Fehlermeldung aufgeführten IAM-Berechtigungen (Identity and Access Management) hat. Ein Beispiel für eine fehlende IAM-Berechtigung ist aiplatform.endpoints.predict. Weitere Informationen finden Sie unter Berechtigungen für Kundenservicemitarbeiter einrichten.

Ausführung der Reasoning Engine fehlgeschlagen

Wenn Sie beim Abfragen Ihrer Anwendung die Fehlermeldung „Reasoning Engine Execution failed“ (Ausführung der Inferenzmaschine fehlgeschlagen) erhalten, kann dies an einem der in diesem Abschnitt beschriebenen Probleme liegen.

Ungültige Eingaben für .query()

Problem:

Möglicherweise erhalten Sie einen FailedPrecondition-Fehler, der in etwa so aussieht:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}

Mögliche Ursache:

Dieser Fehler tritt auf, wenn Sie die Eingaben für die Abfrage als Positionalargumente anstelle von Keyword-Argumenten angeben. Sie rufen beispielsweise agent.query(query_str) anstelle von agent.query(input=query_str) auf.

Empfohlene Lösung:

Geben Sie bei der Abfrage einer Instanz einer bereitgestellten Reasoning Engine alle Eingaben als Schlüsselwortargumente an.

Kontingent für Gemini-Modelle ausgeschöpft

Problem:

Möglicherweise erhalten Sie eine Fehlermeldung, die so aussieht:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}

oder eine andere Fehlermeldung:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}

Mögliche Ursache:

Das kann passieren, wenn Sie in letzter Zeit zu viele Anfragen gesendet und das Kontingent für Gemini-Modelle aufgebraucht haben.

Empfohlene Lösung:

Folgen Sie dem Verfahren zur Verwaltung des Gemini-Modellkontingents, um das Kontingent zu erhöhen. Alternativ können Sie die Tests begrenzen und es später noch einmal versuchen.