Halaman ini menyediakan strategi pemecahan masalah serta solusi untuk beberapa error umum.
Saat memecahkan masalah penayangan Knative, pastikan terlebih dahulu bahwa Anda dapat menjalankan image container secara lokal.
Jika aplikasi Anda tidak berjalan secara lokal, Anda perlu mendiagnosis dan memperbaikinya. Anda harus menggunakan Cloud Logging untuk membantu men-debug project yang di-deploy.
Saat memecahkan masalah penayangan Knative, lihat bagian berikut untuk menemukan kemungkinan solusi untuk masalah tersebut.
Memeriksa output command line
Jika Anda menggunakan Google Cloud CLI, periksa output perintah Anda untuk melihat apakah perintah berhasil atau tidak. Misalnya, jika deployment Anda tidak berhasil dihentikan, akan ada pesan error yang menjelaskan alasan kegagalannya.
Kegagalan deployment kemungkinan besar disebabkan oleh konfigurasi manifes yang salah dikonfigurasi atau perintah yang salah. Misalnya, output berikut mengatakan bahwa Anda harus mengonfigurasi persentase traffic rute menjadi 100.
Error from server (InternalError): error when applying patch:</p><pre>{"metadata":{"annotations":{"kubectl.kubernetes.io/last-applied-configuration":"{\"apiVersion\":\"serving.knative.dev/v11\",\"kind\":\"Route\",\"metadata\":{\"annotations\":{},\"name\":\"route-example\",\"namespace\":\"default\"},\"spec\":{\"traffic\":[{\"configurationName\":\"configuration-example\",\"percent\":50}]}}\n"}},"spec":{"traffic":[{"configurationName":"configuration-example","percent":50}]}}
to:
&{0xc421d98240 0xc421e77490 default route-example STDIN 0xc421db0488 264682 false}
for: "STDIN": Internal error occurred: admission webhook "webhook.knative.dev" denied the request: mutation failed: The route must have traffic percent sum equal to 100.
ERROR: Non-zero return code '1' from command: Process exited with status 1
Memeriksa log untuk layanan Anda
Anda dapat menggunakan Cloud Logging atau halaman penayangan Knative di konsol Google Cloud untuk memeriksa log permintaan dan log container. Untuk mengetahui detail selengkapnya, baca Logging dan melihat log.
Jika Anda menggunakan Cloud Logging, resource yang perlu Anda filter adalah Container Kubernetes.
Memeriksa status Layanan
Jalankan perintah berikut untuk mendapatkan status layanan penayangan Knative yang di-deploy:
gcloud run services describe SERVICE
Anda dapat menambahkan --format yaml(status)
atau --format json(status)
untuk mendapatkan status
lengkap, misalnya:
gcloud run services describe SERVICE --format 'yaml(status)'
Kondisi di status
dapat membantu Anda menemukan penyebab kegagalan.
Kondisi dapat mencakup True
, False
, atau Unknown
:
- Siap:
True
menunjukkan bahwa layanan telah dikonfigurasi dan siap menerima traffic. - ConfigurationReady:
True
menunjukkan bahwa Configuration pokok sudah siap. UntukFalse
atauUnknown
, Anda harus melihat status revisi terbaru. - RoutesReady:
True
menunjukkan Route pokok yang telah siap. UntukFalse
atauUnknown
, Anda harus melihat status rute.
Untuk detail tambahan tentang kondisi status, lihat Sinyal Error Knative.
Memeriksa status Rute
Setiap Layanan penayangan Knative mengelola Route yang mewakili status pemilihan rute saat ini terhadap revisi layanan.
Anda dapat memeriksa status keseluruhan Rute dengan melihat status layanan:
gcloud run services describe SERVICE --format 'yaml(status)'
Kondisi RoutesReady di status
memberikan status Rute.
Anda dapat mendiagnosis status Rute lebih lanjut dengan menjalankan perintah berikut:
kubectl get route SERVICE -o yaml
Kondisi dalam status
memberikan alasan kegagalan. Yaitu:
Ready menunjukkan apakah layanan dikonfigurasi dan memiliki backend yang tersedia. Jika ini adalah
true
, rute akan dikonfigurasi dengan benar.AllTrafficAssigned menunjukkan apakah layanan dikonfigurasi dengan benar dan memiliki backend yang tersedia. Jika
status
kondisi ini bukanTrue
:Coba periksa apakah pemisahan traffic di antara revisi untuk layanan Anda bertambah hingga 100%:
gcloud run services describe SERVICE
Jika belum, sesuaikan pemisahan traffic menggunakan perintah
gcloud run services update-traffic
.Coba periksa status revisi untuk revisi yang menerima traffic.
IngressReady menunjukkan apakah Ingress sudah siap. Jika
status
kondisi ini bukanTrue
, coba periksa status masuknya.CertificateProvisioned menunjukkan apakah sertifikat Knative telah disediakan. Jika
status
kondisi ini bukanTrue
, coba pemecahan masalah TLS terkelola.
Untuk mengetahui detail tambahan tentang kondisi status, lihat Pelaporan dan Kondisi Error Knative.
Memeriksa status Ingress
Penyajian Knative menggunakan layanan load balancer yang disebut istio-ingressgateway
, yang bertanggung jawab untuk menangani traffic masuk dari luar cluster.
Untuk mendapatkan IP eksternal untuk Load Balancer, jalankan perintah berikut:
kubectl get svc istio-ingressgateway -n ASM-INGRESS-NAMESPACE
Ganti ASM-INGRESS-NAMESPACE dengan namespace tempat traffic masuk Cloud Service Mesh Anda berada. Tentukan istio-system
jika Anda menginstal Cloud Service Mesh menggunakan konfigurasi defaultnya.
Output yang dihasilkan terlihat mirip dengan berikut ini:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) istio-ingressgateway LoadBalancer XX.XX.XXX.XX pending 80:32380/TCP,443:32390/TCP,32400:32400/TCP
dengan nilai EXTERNAL-IP adalah alamat IP eksternal Anda dari LoadBalancer.
Jika EXTERNAL-IP adalah pending
, lihat
EXTERNAL-IP adalah pending
untuk waktu yang lama di bawah.
Memeriksa status Revisi
Untuk mendapatkan revisi terbaru bagi layanan penayangan Knative Anda, jalankan perintah berikut:
gcloud run services describe SERVICE --format='value(status.latestCreatedRevisionName)'
Jalankan perintah berikut untuk mendapatkan status revisi inferensi Knative tertentu:
gcloud run revisions describe REVISION
Anda dapat menambahkan --format yaml(status)
atau --format json(status)
untuk mendapatkan status lengkap:
gcloud run revisions describe REVISION --format yaml(status)
Kondisi di status
memberikan alasan kegagalan. Yaitu:
- Ready menunjukkan apakah resource runtime sudah siap. Jika yang ditampilkan adalah
true
, berarti revisi akan dikonfigurasi dengan benar. - ResourcesAvailable menunjukkan apakah resource Kubernetes dasar telah disediakan.
Jika
status
kondisi ini bukanTrue
, coba periksa status Pod. - ContainerHealthy menunjukkan apakah pemeriksaan kesiapan revisi telah selesai.
Jika
status
kondisi ini bukanTrue
, coba periksa status Pod. - Aktif menunjukkan apakah revisi menerima traffic.
Jika salah satu dari kondisi ini' status
tidak True
coba periksa status Pod.
Memeriksa status Pod
Guna mendapatkan Pod untuk semua deployment Anda:
kubectl get pods
Tindakan ini akan menampilkan semua Pod dengan status singkat. Contoh:
NAME READY STATUS RESTARTS AGE
configuration-example-00001-deployment-659747ff99-9bvr4 2/2 Running 0 3h
configuration-example-00002-deployment-5f475b7849-gxcht 1/2 CrashLoopBackOff 2 36s
Pilih salah satu dan gunakan perintah berikut untuk melihat informasi mendetail untuk
status
-nya. Beberapa kolom yang berguna adalah conditions
dan containerStatuses
:
kubectl get pod POD-NAME -o yaml
EXTERNAL-IP adalah <pending>
untuk waktu yang lama
Terkadang, Anda mungkin tidak mendapatkan alamat IP eksternal langsung setelah membuat
cluster, tetapi melihat IP eksternal sebagai pending
. Misalnya, Anda dapat
melihatnya dengan memanggil perintah:
Untuk mendapatkan IP eksternal untuk Load Balancer, jalankan perintah berikut:
kubectl get svc istio-ingressgateway -n ASM-INGRESS-NAMESPACE
Ganti ASM-INGRESS-NAMESPACE dengan namespace tempat traffic masuk Cloud Service Mesh Anda berada. Tentukan istio-system
jika Anda menginstal Cloud Service Mesh menggunakan konfigurasi defaultnya.
Output yang dihasilkan terlihat mirip dengan berikut ini:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) istio-ingressgateway LoadBalancer XX.XX.XXX.XX pending 80:32380/TCP,443:32390/TCP,32400:32400/TCP
dengan nilai EXTERNAL-IP adalah alamat IP eksternal Anda dari LoadBalancer.
Hal ini dapat berarti bahwa Anda telah kehabisan kuota alamat IP eksternal di Google Cloud. Anda dapat memeriksa kemungkinan penyebabnya dengan memanggil:
kubectl describe svc istio-ingressgateway -n INGRESS_NAMESPACEdengan INGRESS_NAMESPACE adalah namespace ASM ingress yang secara default adalah `istio-system`. Ini menghasilkan output yang mirip dengan berikut ini:
Name: istio-ingressgateway Namespace: INGRESS_NAMESPACE Labels: app=istio-ingressgateway istio=ingressgateway istio.io/rev=asm-1102-3 operator.istio.io/component=IngressGateways operator.istio.io/managed=Reconcile operator.istio.io/version=1.10.2-asm.3 release=istio Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"v1","kind":"Service","metadata":{"annotations":{},"labels":{"addonmanager.kubernetes.io/mode":"Reconcile","app":"istio-ingressgateway","... Selector: app=istio-ingressgateway,istio=ingressgateway Type: LoadBalancer IP: 10.XX.XXX.XXX LoadBalancer Ingress: 35.XXX.XXX.188 Port: http2 80/TCP TargetPort: 80/TCP NodePort: http2 31380/TCP Endpoints: XX.XX.1.6:80 Port: https 443/TCP TargetPort: 443/TCP NodePort: https 3XXX0/TCP Endpoints: XX.XX.1.6:XXX Port: tcp 31400/TCP TargetPort: 3XX00/TCP NodePort: tcp 3XX00/TCP Endpoints: XX.XX.1.6:XXXXX Port: tcp-pilot-grpc-tls 15011/TCP TargetPort: 15011/TCP NodePort: tcp-pilot-grpc-tls 32201/TCP Endpoints: XX.XX.1.6:XXXXX Port: tcp-citadel-grpc-tls 8060/TCP TargetPort: 8060/TCP NodePort: tcp-citadel-grpc-tls 31187/TCP Endpoints: XX.XX.1.6:XXXX Port: tcp-dns-tls 853/TCP TargetPort: XXX/TCP NodePort: tcp-dns-tls 31219/TCP Endpoints: 10.52.1.6:853 Port: http2-prometheus 15030/TCP TargetPort: XXXXX/TCP NodePort: http2-prometheus 30944/TCP Endpoints: 10.52.1.6:15030 Port: http2-grafana 15031/TCP TargetPort: XXXXX/TCP NodePort: http2-grafana 31497/TCP Endpoints: XX.XX.1.6:XXXXX Session Affinity: None External Traffic Policy: Cluster Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal EnsuringLoadBalancer 7s (x4318 over 15d) service-controller Ensuring load balancer
Jika output Anda menunjukkan indikasi bahwa kuota IN_USE_ADDRESSES
terlampaui, Anda dapat meminta kuota tambahan dengan membuka halaman IAM & Admin di Konsol Google Cloud untuk meminta kuota tambahan.
Gateway akan terus mencoba lagi hingga alamat IP eksternal ditetapkan. Proses ini mungkin memerlukan waktu beberapa menit.
Memecahkan masalah domain kustom dan TLS terkelola
Gunakan langkah pemecahan masalah yang tercantum di bawah untuk menyelesaikan masalah umum untuk domain kustom dan fitur sertifikat TLS terkelola.
Domain kustom untuk jaringan internal pribadi
Jika Anda memetakan domain kustom ke cluster atau layanan penayangan Knative dalam jaringan internal pribadi, Anda harus menonaktifkan sertifikat TLS terkelola. Jika tidak, konfigurasi domain Anda akan gagal mencapai status ready
. Secara default, load balancer internal tidak dapat berkomunikasi secara eksternal dengan certificate authority.
Memeriksa status pemetaan domain tertentu
Untuk memeriksa status pemetaan domain tertentu:
Jalankan perintah:
gcloud run domain-mappings describe --domain DOMAIN --namespace NAMESPACE
Ganti
- DOMAIN dengan nama domain yang Anda gunakan.
- NAMESPACE dengan namespace yang Anda gunakan untuk pemetaan domain.
Dalam hasil
yaml
dari perintah ini, periksa kondisi kolomCertificateProvisioned
untuk menentukan sifat error.Jika ada error yang ditampilkan, error tersebut akan cocok dengan salah satu error dalam tabel di bawah. Ikuti saran di tabel untuk menyelesaikan masalah tersebut.
Error konfigurasi pengguna
Kode error | Detail |
---|---|
DNSErrored | Pesan:
Data DNS tidak dikonfigurasi dengan benar. Perlu memetakan domain [XXX] ke IP XX.XX.XX.XX
Ikuti petunjuk yang diberikan untuk mengonfigurasi data DNS Anda dengan benar. |
RateLimitExceeded | Pesan:
acme: urn:ietf:params:acme:error:rateLimited: Error membuat pesanan baru
:: terlalu banyak sertifikat yang sudah diterbitkan untuk kumpulan domain yang tepat: test.your-domain.com: lihat https://letsencrypt.org/docs/rate-limits/ Kuota Let's Encrypt telah terlampaui. Anda harus meningkatkan kuota sertifikat Let's Encrypt untuk host tersebut. |
InvalidDomainMappingName | Pesan:
Nama DomainMapping %s tidak boleh sama dengan host URL Rute %s.
Nama DomainMapping tidak boleh sama persis dengan host Rute yang dipetakan. Gunakan domain yang berbeda untuk nama DomainMapping Anda. |
ChallengeServingErrored | Pesan: Sistem gagal menayangkan permintaan HTTP01.
Error ini dapat terjadi jika layanan
|
Error sistem
Kode error | Detail |
---|---|
OrderErrored
AuthzErrored ChallengeErrored |
Ketiga jenis error ini terjadi jika verifikasi kepemilikan domain dengan
Let's Encrypt gagal.
Error ini biasanya merupakan error sementara, dan akan dicoba lagi oleh penayangan Knative. Penundaan percobaan ulang bersifat eksponensial dengan minimum 8 detik dan maksimum 8 jam. Jika ingin mencoba lagi error tersebut secara manual, Anda dapat menghapus Pesanan yang gagal secara manual.
|
ACMEAPIFailed | Jenis error ini terjadi saat penyaluran Knative gagal memanggil Let's Encrypt. Hal ini biasanya merupakan error sementara, dan akan dicoba lagi oleh inferensi Knative.
Jika Anda ingin mencoba lagi error tersebut secara manual, hapus Pesanan yang gagal secara manual.
|
UnknownErrored | Error ini menunjukkan error sistem yang tidak diketahui, yang biasanya jarang terjadi di cluster GKE. Jika Anda melihat ini, hubungi dukungan Cloud untuk mendapatkan bantuan proses debug. |
Periksa Status pesanan
Status Order mencatat proses interaksi dengan Let's Encrypt, sehingga dapat digunakan untuk men-debug masalah yang terkait dengan Let's Encrypt. Jika diperlukan, periksa status Pesanan dengan menjalankan perintah ini:
kubectl get order DOMAIN -n NAMESPACE -oyaml
Ganti
- DOMAIN dengan nama domain yang Anda gunakan.
- NAMESPACE dengan namespace yang Anda gunakan untuk pemetaan domain.
Hasilnya akan berisi sertifikat yang diterbitkan dan informasi lainnya jika pesanan berhasil.
Waktu Tunggu Pesanan
Waktu tunggu objek Pesanan akan habis setelah 20 menit jika masih tidak bisa mendapatkan sertifikat.
Periksa status pemetaan domain. Untuk waktu tunggu, cari pesan error seperti ini di output status:
order (test.your-domain.com) timed out (20.0 minutes)
Penyebab umum masalah waktu tunggu adalah data DNS tidak dikonfigurasi dengan benar untuk memetakan domain yang Anda gunakan ke alamat IP layanan masuk. Jalankan perintah berikut untuk memeriksa data DNS:
host DOMAIN
Periksa alamat IP eksternal load balancer masuk Anda:
Untuk mendapatkan IP eksternal untuk Load Balancer, jalankan perintah berikut:
kubectl get svc istio-ingressgateway -n ASM-INGRESS-NAMESPACE
Ganti ASM-INGRESS-NAMESPACE dengan namespace tempat traffic masuk Cloud Service Mesh Anda berada. Tentukan
istio-system
jika Anda menginstal Cloud Service Mesh menggunakan konfigurasi defaultnya.Output yang dihasilkan terlihat mirip dengan berikut ini:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) istio-ingressgateway LoadBalancer XX.XX.XXX.XX pending 80:32380/TCP,443:32390/TCP,32400:32400/TCP
dengan nilai EXTERNAL-IP adalah alamat IP eksternal Anda dari LoadBalancer.
Jika alamat IP eksternal domain tidak cocok dengan alamat IP masuk, konfigurasi ulang data DNS agar dipetakan ke alamat IP yang benar.
Setelah data DNS (yang diperbarui) menjadi efektif, jalankan perintah berikut untuk menghapus objek Order agar dapat memicu kembali proses permintaan sertifikat TLS:
kubectl delete order DOMAIN -n NAMESPACE
Ganti
- DOMAIN dengan nama domain yang Anda gunakan.
- NAMESPACE dengan namespace yang Anda gunakan.
Kegagalan Otorisasi
Kegagalan otorisasi dapat terjadi saat data DNS tidak diterapkan secara global tepat waktu. Akibatnya, Let's Encrypt gagal memverifikasi kepemilikan domain.
Periksa Status pesanan. Cari link authz di bagian kolom status
acmeAuthorizations
. URL-nya akan terlihat seperti ini:https://acme-v02.api.letsencrypt.org/acme/authz-v3/1717011827
Buka link. Jika Anda melihat pesan yang mirip dengan:
urn:ietf:params:acme:error:dns
maka masalahnya adalah karena propagasi DNS tidak lengkap.
Untuk mengatasi error penerapan DNS:
Periksa alamat IP eksternal load balancer masuk Anda:
Untuk mendapatkan IP eksternal untuk Load Balancer, jalankan perintah berikut:
kubectl get svc istio-ingressgateway -n ASM-INGRESS-NAMESPACE
Ganti ASM-INGRESS-NAMESPACE dengan namespace tempat traffic masuk Cloud Service Mesh Anda berada. Tentukan
istio-system
jika Anda menginstal Cloud Service Mesh menggunakan konfigurasi defaultnya.Output yang dihasilkan terlihat mirip dengan berikut ini:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) istio-ingressgateway LoadBalancer XX.XX.XXX.XX pending 80:32380/TCP,443:32390/TCP,32400:32400/TCP
dengan nilai EXTERNAL-IP adalah alamat IP eksternal Anda dari LoadBalancer.
Periksa data DNS Anda untuk domain dengan menjalankan perintah berikut:
host DOMAIN
Jika alamat IP data DNS tidak cocok dengan IP eksternal load balancer masuk, konfigurasikan data DNS Anda untuk memetakan domain pengguna ke IP eksternal.
Setelah data DNS (diperbarui) menjadi efektif, jalankan perintah berikut untuk menghapus objek Order guna memicu kembali proses permintaan sertifikat TLS:
kubectl delete order DOMAIN -n NAMESPACE
Ganti
- DOMAIN dengan nama domain yang Anda gunakan.
- NAMESPACE dengan namespace yang Anda gunakan untuk pemetaan domain.
Kegagalan deployment ke cluster pribadi: Gagal memanggil error webhook
Firewall Anda mungkin tidak disiapkan dengan benar jika deployment ke cluster pribadi gagal dan menampilkan pesan:
Error: failed calling webhook "webhook.serving.knative.dev": Post
https://webhook.knative-serving.svc:443/?timeout=30s: context deadline exceeded (Client.Timeout
exceeded while awaiting headers)
Untuk mengetahui informasi tentang perubahan firewall yang diperlukan guna mendukung deployment ke cluster pribadi, lihat mengaktifkan deployment pada cluster pribadi.
Status laporan layanan IngressNotConfigured
Jika IngressNotConfigured
muncul dalam status layanan, Anda mungkin perlu memulai ulang deployment istiod
dalam namespace istio-system
jika menggunakan Cloud Service Mesh bidang kontrol dalam cluster. Error ini,
yang lebih sering diamati di 1.14
kubernetes, dapat terjadi jika
layanan dibuat sebelum istiod
siap memulai pekerjaan
merek rekonsiliasi VirtualServices
dan mengirim konfigurasi envoy ke
gateway masuk.
Untuk memperbaiki masalah ini, skalakan deployment masuk dan kembali lagi menggunakan perintah yang mirip dengan berikut ini:
kubectl scale deployment istiod -n istio-system --replicas=0
kubectl scale deployment istiod -n istio-system --replicas=1
Metrik jumlah permintaan dan latensi permintaan tidak ada
Layanan Anda tidak dapat melaporkan jumlah permintaan revisi dan meminta metrik latensi jika Anda mengaktifkan Workload Identity dan belum memberikan izin tertentu ke akun layanan yang digunakan oleh layanan Anda.
Anda dapat memperbaikinya dengan mengikuti langkah-langkah di bagian Mengaktifkan metrik pada cluster dengan Workload Identity.