Dokumen ini menjelaskan cara mengatasi error yang mungkin Anda alami saat menggunakan aplikasi.
Skema operasi kosong
Jika aplikasi Anda menampilkan daftar kosong dari .operation_schemas()
, hal ini mungkin
disebabkan oleh salah satu masalah berikut:
Gagal membuat skema selama pembuatan aplikasi
Masalah:
Saat men-deploy aplikasi, Anda akan menerima peringatan yang mirip dengan berikut:
WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class
Kemungkinan penyebab:
Peringatan ini mungkin terjadi jika Anda men-deploy aplikasi menggunakan template LangchainAgent
bawaan pada versi google-cloud-aiplatform
yang lebih lama dari 1.49.0
. Untuk memeriksa versi yang Anda gunakan, jalankan perintah
berikut di terminal:
pip show google-cloud-aiplatform
Solusi yang direkomendasikan:
Jalankan perintah berikut di terminal untuk mengupdate
paket google-cloud-aiplatform
:
pip install google-cloud-aiplatform --upgrade
Setelah Anda mengupdate paket google-cloud-aiplatform
, jalankan perintah
berikut untuk memverifikasi bahwa versinya adalah 1.49.0
atau yang lebih baru:
pip show google-cloud-aiplatform
Jika berada di instance notebook (misalnya, Jupyter atau Colab atau Workbench),
Anda mungkin perlu memulai ulang runtime untuk menggunakan paket yang diupdate. Setelah Anda
memverifikasi versi google-cloud-aiplatform
adalah 1.49.0
atau yang lebih baru, coba
deploy aplikasi Anda lagi.
Error PermissionDenied
saat membuat kueri aplikasi Anda
Kueri Anda mungkin gagal jika Anda tidak memiliki izin yang diperlukan.
Izin LLM
Masalah:
Anda mungkin menerima error PermissionDenied
yang mirip dengan berikut ini:
PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
key: "permission"
value: "aiplatform.endpoints.predict"
}
metadata {
key: "resource"
value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]
Kemungkinan penyebab:
Akun Layanan Anda mungkin tidak memiliki izin yang tepat untuk membuat kueri model bahasa besar (LLM).
Solusi yang direkomendasikan:
Pastikan akun layanan Anda memiliki izin Identity and Access Management (IAM)
yang tepat yang tercantum dalam pesan error. Contoh izin IAM
yang mungkin Anda tidak miliki adalah aiplatform.endpoints.predict
. Lihat Menyiapkan izin agen layanan
untuk informasi selengkapnya.
Eksekusi Reasoning Engine gagal
Jika Anda menerima pesan error "Reasoning Engine Execution failed" saat membuat kueri aplikasi, hal ini mungkin disebabkan oleh salah satu masalah yang dijelaskan di bagian ini.
Input tidak valid ke .query()
Masalah:
Anda mungkin menerima error FailedPrecondition
yang mirip dengan berikut ini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}
Kemungkinan penyebab:
Error ini terjadi saat Anda menentukan input ke kueri sebagai argumen posisional, bukan argumen kata kunci. Misalnya, Anda memanggil
agent.query(query_str)
, bukan agent.query(input=query_str)
.
Solusi yang direkomendasikan:
Saat membuat kueri instance mesin penalaran yang telah di-deploy, tentukan semua input sebagai argumen kata kunci.
Kehabisan kuota model Gemini
Masalah:
Anda mungkin menerima error yang mirip dengan salah satu hal berikut, yang menunjukkan bahwa error tersebut muncul dari panggilan ke Gemini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}
atau, pesan error yang berbeda:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}
Kemungkinan penyebab:
Hal ini dapat terjadi jika Anda telah mengirim terlalu banyak permintaan baru-baru ini dan telah menggunakan kuota model Gemini.
Solusi yang direkomendasikan:
Ikuti proses pengelolaan kuota model Gemini untuk meningkatkan kuota. Atau, batasi kapasitas pengujian Anda dan coba lagi nanti.