Memecahkan masalah menggunakan aplikasi

Dokumen ini menjelaskan cara mengatasi error yang mungkin Anda alami saat menggunakan aplikasi.

Skema operasi kosong

Jika aplikasi Anda menampilkan daftar kosong dari .operation_schemas(), hal ini mungkin disebabkan oleh salah satu masalah berikut:

Gagal membuat skema selama pembuatan aplikasi

Masalah:

Saat men-deploy aplikasi, Anda akan menerima peringatan yang mirip dengan berikut:

WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class

Kemungkinan penyebab:

Peringatan ini mungkin terjadi jika Anda men-deploy aplikasi menggunakan template LangchainAgent bawaan pada versi google-cloud-aiplatform yang lebih lama dari 1.49.0. Untuk memeriksa versi yang Anda gunakan, jalankan perintah berikut di terminal:

pip show google-cloud-aiplatform

Solusi yang direkomendasikan:

Jalankan perintah berikut di terminal untuk mengupdate paket google-cloud-aiplatform:

pip install google-cloud-aiplatform --upgrade

Setelah Anda mengupdate paket google-cloud-aiplatform, jalankan perintah berikut untuk memverifikasi bahwa versinya adalah 1.49.0 atau yang lebih baru:

pip show google-cloud-aiplatform

Jika berada di instance notebook (misalnya, Jupyter atau Colab atau Workbench), Anda mungkin perlu memulai ulang runtime untuk menggunakan paket yang diupdate. Setelah Anda memverifikasi versi google-cloud-aiplatform adalah 1.49.0 atau yang lebih baru, coba deploy aplikasi Anda lagi.

Error PermissionDenied saat membuat kueri aplikasi Anda

Kueri Anda mungkin gagal jika Anda tidak memiliki izin yang diperlukan.

Izin LLM

Masalah:

Anda mungkin menerima error PermissionDenied yang mirip dengan berikut ini:

PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource 
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
  key: "permission"
  value: "aiplatform.endpoints.predict"
}
metadata {
  key: "resource"
  value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]

Kemungkinan penyebab:

Akun Layanan Anda mungkin tidak memiliki izin yang tepat untuk membuat kueri model bahasa besar (LLM).

Solusi yang direkomendasikan:

Pastikan akun layanan Anda memiliki izin Identity and Access Management (IAM) yang tepat yang tercantum dalam pesan error. Contoh izin IAM yang mungkin Anda tidak miliki adalah aiplatform.endpoints.predict. Lihat Menyiapkan izin agen layanan untuk informasi selengkapnya.

Eksekusi Reasoning Engine gagal

Jika Anda menerima pesan error "Reasoning Engine Execution failed" saat membuat kueri aplikasi, hal ini mungkin disebabkan oleh salah satu masalah yang dijelaskan di bagian ini.

Input tidak valid ke .query()

Masalah:

Anda mungkin menerima error FailedPrecondition yang mirip dengan berikut ini:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}

Kemungkinan penyebab:

Error ini terjadi saat Anda menentukan input ke kueri sebagai argumen posisional, bukan argumen kata kunci. Misalnya, Anda memanggil agent.query(query_str), bukan agent.query(input=query_str).

Solusi yang direkomendasikan:

Saat membuat kueri instance mesin penalaran yang telah di-deploy, tentukan semua input sebagai argumen kata kunci.

Kehabisan kuota model Gemini

Masalah:

Anda mungkin menerima error yang mirip dengan salah satu hal berikut, yang menunjukkan bahwa error tersebut muncul dari panggilan ke Gemini:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}

atau, pesan error yang berbeda:

FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}

Kemungkinan penyebab:

Hal ini dapat terjadi jika Anda telah mengirim terlalu banyak permintaan baru-baru ini dan telah menggunakan kuota model Gemini.

Solusi yang direkomendasikan:

Ikuti proses pengelolaan kuota model Gemini untuk meningkatkan kuota. Atau, batasi kapasitas pengujian Anda dan coba lagi nanti.