Dokumen ini menjelaskan cara mengatasi error yang mungkin Anda temui saat menggunakan aplikasi.
Skema operasi kosong
Jika aplikasi Anda menampilkan daftar kosong dari .operation_schemas()
, aplikasi mungkin
disebabkan oleh salah satu masalah berikut:
Gagal membuat skema selama pembuatan aplikasi
Masalah:
Saat men-deploy aplikasi, Anda akan menerima peringatan seperti berikut:
WARNING:vertexai.reasoning_engines._reasoning_engines:failed to generate schema: issubclass() arg 1 must be a class
Kemungkinan penyebab:
Peringatan ini mungkin terjadi jika Anda men-deploy aplikasi menggunakan
LangchainAgent
template pada versi google-cloud-aiplatform
yang
lebih lama dari 1.49.0
. Untuk memeriksa versi yang Anda gunakan, jalankan perintah berikut
di terminal:
pip show google-cloud-aiplatform
Solusi yang direkomendasikan:
Jalankan perintah berikut di terminal Anda untuk memperbarui
Paket google-cloud-aiplatform
:
pip install google-cloud-aiplatform --upgrade
Setelah Anda mengupdate paket google-cloud-aiplatform
, jalankan perintah berikut
untuk memverifikasi bahwa versinya adalah 1.49.0
atau yang lebih baru:
pip show google-cloud-aiplatform
Jika Anda berada di instance notebook (misalnya, Jupyter atau Colab atau Workbench),
Anda mungkin perlu memulai ulang {i>runtime<i}
untuk menggunakan paket yang telah diperbarui. Setelah Anda
memverifikasi versi google-cloud-aiplatform
Anda adalah 1.49.0
atau yang lebih baru, coba
deploy aplikasi Anda lagi.
PermissionDenied
error saat membuat kueri aplikasi Anda
Kueri Anda mungkin gagal jika Anda tidak memiliki izin yang diperlukan.
Izin LLM
Masalah:
Anda mungkin menerima error PermissionDenied
yang mirip dengan yang berikut ini:
PermissionDenied: 403 Permission 'aiplatform.endpoints.predict' denied on resource
'//aiplatform.googleapis.com/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/
google/models/{MODEL}' (or it may not exist). [reason: "IAM_PERMISSION_DENIED"
domain: "aiplatform.googleapis.com"
metadata {
key: "permission"
value: "aiplatform.endpoints.predict"
}
metadata {
key: "resource"
value: "projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/{MODEL}"
}
]
Kemungkinan penyebab:
Akun Layanan Anda mungkin tidak memiliki izin yang sesuai untuk mengkueri model bahasa besar (LLM) Anda.
Solusi yang direkomendasikan:
Pastikan akun layanan Anda memiliki Identity and Access Management (IAM) yang tepat
izin yang tercantum dalam pesan error. Contoh IAM
izin yang mungkin tidak Anda miliki adalah aiplatform.endpoints.predict
. Lihat Menyiapkan izin agen layanan
untuk informasi selengkapnya.
Eksekusi Mesin Alasan gagal
Jika Anda menerima pesan error "Alasan Eksekusi Engine gagal" saat membuat kueri aplikasi Anda, itu mungkin karena salah satu masalah yang dijelaskan di bagian ini.
Input untuk .query()
tidak valid
Masalah:
Anda mungkin menerima error FailedPrecondition
yang mirip dengan yang berikut ini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"Invalid request: `{'query': ...}`"}
Kemungkinan penyebab:
Error ini terjadi ketika Anda menentukan {i>input<i} untuk kueri sebagai
argumen posisi, alih-alih argumen kata kunci. Misalnya, Anda memanggil
agent.query(query_str)
, bukan agent.query(input=query_str)
.
Solusi yang direkomendasikan:
Saat membuat kueri instance mesin penalaran yang telah di-deploy, tentukan semua input sebagai argumen kata kunci.
Kuota model Gemini habis
Masalah:
Anda mungkin menerima pesan {i>error<i} yang serupa dengan salah satu dari yang berikut ini, yang menunjukkan bahwa error dimunculkan dari panggilan ke Gemini:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.ResourceExhausted: 429 Unable to submit request because the service is temporarily out of capacity. Try again later."}
atau, pesan error lain:
FailedPrecondition: 400 Reasoning Engine Execution failed. Error Details:
{"detail":"...langchain_google_vertexai/chat_models.py...google.api_core.exceptions.InternalServerError: 500 Internal error occurred."}
Kemungkinan penyebab:
Hal ini mungkin terjadi jika Anda telah mengirim terlalu banyak permintaan baru-baru ini dan Anda telah menggunakan kuota model Gemini.
Solusi yang direkomendasikan:
Ikuti proses pengelolaan kuota model Gemini untuk meningkatkan kuota. Atau, batasi kapasitas pengujian Anda dan coba lagi nanti.