Memecahkan masalah

Periksa apakah pertanyaan atau masalah Anda telah ditangani di salah satu halaman berikut:

Topik dalam halaman ini meliputi:

Pencadangan dan pemulihan

Masalah Pemecahan masalah
Anda tidak dapat melihat status operasi saat ini. Konsol Google Cloud hanya melaporkan keberhasilan atau kegagalan ketika operasi sudah selesai. dan tidak didesain untuk menampilkan peringatan atau update lainnya.

Jalankan perintah gcloud sql operations list untuk mencantumkan semua operasi untuk instance Cloud SQL yang ditentukan.

Anda ingin tahu siapa yang melakukan operasi pencadangan on demand. Antarmuka pengguna tidak menunjukkan pengguna yang memulai operasi.

Lihat di log dan filter berdasarkan teks untuk menemukan pengguna. Anda mungkin perlu menggunakan log audit untuk informasi pribadi. File log yang relevan meliputi:

  • cloudsql.googleapis.com/postgres.log
  • Jika Cloud Audit Logs diaktifkan dan Anda memiliki izin yang diperlukan untuk melihatnya, cloudaudit.googleapis.com/activity mungkin juga tersedia.
Setelah instance dihapus, Anda tidak dapat membuat cadangan instance tersebut.

Setelah instance dihapus permanen, pemulihan data tidak dapat dilakukan. Namun, jika instance dipulihkan, cadangannya juga akan dipulihkan. Untuk informasi selengkapnya terkait pemulihan instance yang dihapus, lihat Cadangan pemulihan.

Jika Anda telah melakukan operasi ekspor, buat instance baru, lalu lakukan operasi impor untuk membuat ulang database. Ekspor ditulis ke Cloud Storage dan impor dibaca dari sana.

Pencadangan otomatis terhenti selama berjam-jam dan tidak dapat dibatalkan. Pencadangan dapat memakan waktu lama bergantung pada ukuran database.

Jika benar-benar perlu membatalkan operasi, Anda dapat meminta dukungan pelanggan untuk force restart instance.

Operasi pemulihan bisa gagal jika satu atau beberapa pengguna yang dirujuk dalam file dump SQL tidak ada. Sebelum memulihkan dump SQL, semua pengguna database yang memiliki objek atau diberi izin pada objek dalam database yang diekspor harus ada dalam database target. Jika tidak, operasi pemulihan akan gagal membuat ulang objek dengan kepemilikan atau izin asli.

Buat pengguna database sebelum memulihkan dump SQL.

Anda ingin meningkatkan jumlah hari untuk menyimpan pencadangan otomatis dari tujuh hari menjadi 30 hari, atau lebih. Anda dapat mengonfigurasi jumlah cadangan otomatis yang akan dipertahankan, dari 1 hingga 365. Pencadangan otomatis dipangkas secara teratur berdasarkan nilai retensi yang dikonfigurasi. Sayangnya, ini berarti cadangan yang saat ini terlihat adalah satu-satunya cadangan otomatis yang dapat Anda pulihkan.

Untuk menyimpan cadangan tanpa batas waktu, Anda dapat membuat cadangan on demand, karena cadangan tersebut tidak dihapus dengan cara yang sama seperti cadangan otomatis. Pencadangan sesuai permintaan akan tetap ada tanpa batas waktu. Artinya, pencadangan tersebut akan tetap ada hingga dihapus atau instance tempatnya dihapus. Karena jenis cadangan tersebut tidak dihapus secara otomatis, hal ini dapat mempengaruhi penagihan.

Pencadangan otomatis gagal dan Anda tidak menerima notifikasi email. Agar Cloud SQL memberi tahu Anda tentang status pencadangan, konfigurasi pemberitahuan berbasis log.
Instance berulang kali mengalami kegagalan karena terus-menerus beralih antara status kegagalan dan pemulihan cadangan. Upaya untuk terhubung dan menggunakan database setelah pemulihan gagal.
  • Mungkin ada terlalu banyak koneksi terbuka. Terlalu banyak koneksi dapat terjadi akibat kesalahan yang terjadi di tengah-tengah suatu koneksi di mana tidak ada penyetelan autovacuum untuk membersihkan koneksi yang tidak aktif.
  • Kegagalan instance yang berulang dapat terjadi jika ada kode kustom yang menggunakan logika percobaan ulang yang tidak berhenti setelah beberapa kegagalan.
  • Kemungkinan traffic terlalu banyak. Gunakan penggabungan koneksi dan praktik terbaik lainnya untuk konektivitas.

Hal-hal yang perlu dicoba:

  1. Verifikasi bahwa database telah disiapkan untuk autovacuum.
  2. Periksa apakah ada logika percobaan ulang koneksi yang disiapkan dalam kode kustom.
  3. Turunkan traffic hingga database pulih, lalu naikkan traffic secara perlahan.
Anda mendapati bahwa data Anda hilang saat melakukan operasi pencadangan/pemulihan. Tabel dibuat dalam keadaan tidak di-log. Contoh:

CREATE UNLOGGED TABLE ....

Tabel berikut tidak termasuk dalam pemulihan dari cadangan:

  • Isi tabel yang tidak di-log tidak dapat bertahan saat terjadi failover pada instance HA.
  • Tabel yang tidak di-log tidak dapat bertahan saat terjadi error postgres.
  • Tabel yang tidak di-log tidak direplikasi ke replika baca.
  • Tabel yang tidak di-log akan otomatis dihapus total selama pemulihan cadangan.

Solusinya adalah menghindari penggunaan tabel yang tidak dicatat jika Anda ingin memulihkan tabel tersebut melalui cadangan. Jika melakukan pemulihan dari database yang sudah memiliki tabel yang tidak di-log, maka Anda dapat mengekspor database tersebut ke suatu file, dan memuat ulang datanya setelah memodifikasi file yang diekspor keALTER TABLE ke SET LOGGED pada tabel tersebut.

Membatalkan impor dan ekspor

Masalah Pemecahan masalah
Pesan error: You can't cancel operation [operation-ID] because this operation isn't in progress.

Anda mencoba membatalkan operasi impor atau ekspor yang telah selesai, gagal atau dibatalkan. Jika operasi sedang berjalan, Anda dapat membatalkannya.

Pesan error: You can't cancel operation [operation-ID] because Cloud SQL doesn't support the cancellation of an [operation-type] operation.

Cloud SQL tidak mendukung pembatalan operasi karena memiliki jenis operasi selain IMPORT atau EXPORT.

Pesan error: The [operation-type] operation isn't cancelled. Wait and retry in a few seconds.

Cloud SQL saat ini tidak dapat membatalkan operasi impor atau ekspor. Coba lagi dalam beberapa detik. Jika masalah berlanjut, hubungi Dukungan Google Cloud.

Clone

Masalah Pemecahan masalah
Cloning gagal dengan error constraints/sql.restrictAuthorizedNetworks. Operasi cloning diblokir oleh konfigurasi Authorized Networks. Authorized Networks dikonfigurasi untuk alamat IP publik di bagian Konektivitas pada konsol Google Cloud, dan cloning tidak diizinkan karena pertimbangan keamanan.

Hapus semua entri Authorized Networks dari instance Cloud SQL jika memungkinkan. Atau, buat replika tanpa entri Authorized Networks apapun.

Pesan error: Failed to create subnetwork. Couldn't find free blocks in allocated IP ranges. Please allocate new ranges for this service provider. Help Token: [help-token-id].

Anda mencoba menggunakan Konsol Google Cloud untuk meng-clone instance dengan alamat IP pribadi, tetapi Anda tidak menentukan rentang IP yang dialokasikan yang ingin digunakan dan instance sumber tidak dibuat dengan rentang yang ditentukan. Akibatnya, instance yang di-clone dibuat dalam rentang acak.

Gunakan gcloud untuk meng-clone instance dan memberikan nilai untuk parameter
--allocated-ip-range-name. Untuk informasi selengkapnya, lihat Meng-clone instance dengan IP pribadi.

Konektivitas

Masalah Pemecahan masalah
Aborted connection. Masalahnya mungkin:
  • Ketidakstabilan jaringan.
  • Tidak ada respons terhadap perintah keep-alive TCP (baik klien maupun server tidak responsif, mungkin kelebihan beban)
  • Masa pakai koneksi mesin database terlampaui dan server mengakhiri koneksi.

Aplikasi harus menoleransi kegagalan jaringan dan mengikuti praktik terbaik, seperti penggabungan koneksi dan percobaan ulang. Sebagian besar penyatuan koneksi akan menangkap error ini jika memungkinkan. Jika tidak, aplikasi akan mencoba ulang atau gagal dengan sendirinya.

Untuk percobaan ulang koneksi, sebaiknya gunakan metode berikut:

  1. Backoff eksponensial. Tingkatkan interval waktu antara setiap percobaan ulang, secara eksponensial.
  2. Tambahkan juga backoff acak.

Menggabungkan metode ini membantu mengurangi throttling.

Certificate verify failed.

Masa berlaku sertifikat klien telah berakhir atau jalur ke sertifikat salah.

Buat ulang sertifikat dengan membuatnya lagi.

FATAL: database 'user' does not exist. gcloud sql connect --user hanya berfungsi dengan pengguna postgres default.

Terhubung dengan pengguna default, lalu ubah pengguna.

Anda ingin mengetahui siapa yang terhubung. Login ke database dan jalankan perintah berikut:

SELECT datname,
usename,
application_name as appname,
client_addr,
state,
now() - backend_start as conn_age,
now() - state_change as last_activity_age
FROM pg_stat_activity
WHERE backend_type = 'client backend'
ORDER BY 6 DESC
LIMIT 20
   

Hostname/IP does not match certificate's altnames: Host: localhost. is not in the cert's altnames.

Alamat host tidak cocok dengan alamat dalam nama alternatif sertifikat server.

Jika Anda menggunakan Node.js dengan verify-full atau yang setara, gunakan nama DNS untuk parameter servername. Nama DNS dapat ditemukan di sertifikat server menggunakan openssl. Misalnya, openssl x509 -in server-cert.pem -noout -text |grep 'DNS:'.

 ssl: {
  rejectUnauthorized: true,
  ca: fs.readFileSync("/path/to/server/CA"),
  servername: 'N-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxx.us-central1.sql.goog'
}

Membuat instance

Masalah Pemecahan masalah
Pesan error: Failed to create subnetwork. Couldn't find free blocks in allocated IP ranges. Please allocate new ranges for this service provider. Tidak ada lagi alamat yang tersedia dalam rentang IP yang dialokasikan. Ada beberapa kemungkinan skenario:

  • Ukuran rentang IP yang dialokasikan untuk koneksi layanan pribadi lebih kecil dari /24.
  • Ukuran rentang IP yang dialokasikan untuk koneksi layanan pribadi terlalu kecil untuk jumlah instance Cloud SQL.
  • Persyaratan ukuran rentang IP yang dialokasikan akan lebih besar jika instance dibuat di beberapa region. Lihat ukuran rentang yang dialokasikan

Untuk mengatasi masalah ini, Anda dapat memperluas rentang IP yang dialokasikan atau mengalokasikan rentang IP tambahan ke koneksi layanan pribadi. Untuk informasi selengkapnya, lihat Mengalokasikan rentang alamat IP.

Jika menggunakan tanda --allocated-ip-range-name saat membuat instance Cloud SQL, Anda hanya dapat memperluas rentang IP yang ditentukan.

Jika Anda mengalokasikan rentang baru, pastikan alokasinya tidak tumpang tindih dengan alokasi yang ada.

Setelah membuat rentang IP baru, perbarui peering vpc dengan perintah berikut:

gcloud services vpc-peerings update \
--service=servicenetworking.googleapis.com \
--ranges=OLD_RESERVED_RANGE_NAME,NEW_RESERVED_RANGE_NAME \
--network=VPC_NETWORK \
--project=PROJECT_ID \
--force
    

Jika Anda memperluas alokasi yang sudah ada, pastikan untuk hanya menambah rentang alokasi dan tidak menguranginya. Misalnya, jika alokasi asli adalah 10.0.10.0/24, buat alokasi baru dengan minimal 10.0.10.0/23.

Secara umum, jika dimulai dari alokasi /24, mengurangi /mask sebesar 1 untuk setiap kondisi (grup jenis instance tambahan, region tambahan) adalah aturan praktis yang baik. Misalnya, jika mencoba membuat kedua grup jenis instance pada alokasi yang sama, beralih dari /24 ke /23 sudah cukup.

Setelah memperluas rentang IP yang ada, perbarui peering vpc dengan perintah berikut:

gcloud services vpc-peerings update \
--service=servicenetworking.googleapis.com \
--ranges=RESERVED_RANGE_NAME \
--network=VPC_NETWORK \
--project=PROJECT_ID
    
Pesan error: Failed to create subnetwork. Router status is temporarily unavailable. Please try again later. Help Token: [token-ID]. Coba buat instance Cloud SQL lagi.
Pesan error: Failed to create subnetwork. Required 'compute.projects.get' permission for PROJECT_ID. Saat Anda membuat instance menggunakan alamat IP Pribadi, akun layanan akan dibuat tepat waktu menggunakan Service Networking API. Jika Anda baru saja mengaktifkan Service Networking API, akun layanan mungkin tidak dibuat dan pembuatan instance akan gagal. Dalam hal ini, Anda harus menunggu akun layanan diterapkan di seluruh sistem atau menambahkannya secara manual dengan izin yang diperlukan.

Ekspor

Masalah Pemecahan masalah
HTTP Error 409: Operation failed because another operation was already in progress. Sudah ada operasi yang tertunda untuk instance Anda. Hanya satu operasi yang diizinkan pada satu waktu. Coba permintaan Anda setelah operasi saat ini selesai.
HTTP Error 403: The service account does not have the required permissions for the bucket. Pastikan bucket ada dan akun layanan untuk instance Cloud SQL (yang melakukan ekspor) memiliki peran Storage Object Creator (roles/storage.objectCreator) untuk memungkinkan ekspor ke bucket. Lihat Peran IAM untuk Cloud Storage.
Ekspor CSV berhasil, tetapi ekspor SQL gagal. Format CSV dan SQL melakukan ekspor secara berbeda. Format SQL mengekspor seluruh database, dan mungkin memerlukan waktu lebih lama untuk diselesaikan. Format CSV memungkinkan Anda menentukan elemen database yang akan disertakan dalam ekspor.

Gunakan ekspor CSV untuk mengekspor hal yang Anda butuhkan saja.

Ekspor memerlukan waktu terlalu lama. Cloud SQL tidak mendukung operasi sinkron serentak.

Gunakan pengurangan beban ekspor. Pada level yang tinggi, dalam pengurangan beban ekspor, bukannya mengeluarkan ekspor pada instance sumber, melainkan Cloud SQL menjalankan instance pengurangan beban untuk melakukan ekspor. Pengurangan beban ekspor memiliki beberapa keunggulan, termasuk peningkatan performa pada instance sumber dan pemblokiran operasi administratif saat ekspor sedang berjalan. Dengan pengurangan beban ekspor, total latensi dapat meningkat sebesar jumlah waktu yang diperlukan untuk memunculkan instance pengurangan beban. Umumnya, untuk ekspor yang berukuran wajar, latensi tidak signifikan. Namun, jika ekspor Anda cukup kecil, Anda mungkin akan melihat peningkatan latensi.

Error saat Membuat Ekstensi. File dump berisi referensi ke ekstensi yang tidak didukung.

Edit file dump untuk menghapus referensi.

Terjadi error saat menggunakan pg_dumpall. Menggunakan utilitas pg_dumpall dengan flag --global memerlukan peran superuser. Namun, peran ini tidak didukung di Cloud SQL untuk PostgreSQL. Untuk mencegah terjadinya error saat melakukan operasi ekspor yang menyertakan nama pengguna, sebaiknya gunakan juga flag --no-role-passwords.
Waktu operasi ekspor habis sebelum mengekspor apa pun, dan Anda melihat pesan error Could not receive data from client: Connection reset by peer. Jika Cloud Storage tidak menerima data apa pun dalam jangka waktu tertentu, biasanya sekitar tujuh menit, maka koneksi akan direset. Ada kemungkinan bahwa kueri ekspor awal memakan waktu terlalu lama untuk dijalankan.

Lakukan ekspor manual menggunakan alat pg_dump.

Anda ingin ekspor dilakukan secara otomatis. Cloud SQL tidak menyediakan cara untuk mengotomatiskan ekspor.

Anda dapat mem-build sistem ekspor otomatis Anda sendiri menggunakan produk Google Cloud seperti Cloud Scheduler, Pub/Sub, dan fungsi Cloud Run, mirip dengan artikel ini tentang mengotomatiskan cadangan.

Flag

Masalah Pemecahan masalah
Anda menetapkan zona waktu untuk sebuah sesi, tetapi zona waktu berakhir saat Anda log off.

Hubungkan ke database dan setel zona waktu database ke zona yang Anda inginkan, baik per pengguna atau per database.

Di Cloud SQL untuk PostgreSQL, Anda dapat menentukan hal berikut ini. Setelan ini tidak berubah setelah sesi ditutup, mirip seperti konfigurasi .conf:

ALTER DATABASE dbname SET TIMEZONE TO 'timezone';
ALTER USER username SET TIMEZONE TO 'timezone';

Setelan ini hanya berlaku untuk koneksi baru ke database. Untuk melihat perubahan zona waktu, putuskan sambungan dari instance, lalu hubungkan kembali ke zona waktu tersebut.

Ketersediaan tinggi

Masalah Pemecahan masalah
Anda tidak dapat menemukan metrik untuk failover manual. Hanya failover otomatis yang masuk ke metrik.
Penggunaan resource instance Cloud SQL (CPU dan RAM) mendekati 100%, sehingga instance ketersediaan tinggi mengalami gangguan. Ukuran mesin instance terlalu kecil untuk beban tersebut.

Edit instance untuk mengupgrade ke ukuran mesin yang lebih besar untuk mendapatkan lebih banyak CPU dan memori.

Impor

Masalah Pemecahan masalah
Pesan error: permission denied for schema public Untuk PostgreSQL versi 15 dan yang lebih baru, jika database target dibuat dari template0, pengimporan data mungkin akan gagal. Untuk mengatasi masalah ini, berikan hak istimewa skema publik kepada pengguna cloudsqlsuperuser dengan menjalankan perintah SQL GRANT ALL ON SCHEMA public TO cloudsqlsuperuser.
HTTP Error 409: Operation failed because another operation was already in progress. Sudah ada operasi yang tertunda untuk instance Anda. Hanya satu operasi yang diizinkan pada satu waktu. Coba permintaan Anda setelah operasi saat ini selesai.
Operasi impor memakan waktu terlalu lama. Terlalu banyak koneksi aktif dapat mengganggu operasi impor.

Tutup operasi yang tidak digunakan. Periksa penggunaan CPU dan memori instance Cloud SQL untuk memastikan ada banyak resource yang tersedia. Cara terbaik untuk memastikan resource maksimum untuk impor adalah dengan memulai ulang instance sebelum memulai operasi.

Mulai ulang:

  • Menutup semua koneksi.
  • Mengakhiri tugas yang mungkin menghabiskan resource.
Operasi impor bisa gagal ketika satu atau beberapa pengguna yang dirujuk dalam file dump tidak ada. Sebelum mengimpor file dump, semua pengguna database yang memiliki objek atau diberi izin pada objek dalam database yang diekspor harus ada di database target. Jika tidak, operasi impor akan gagal membuat ulang objek dengan kepemilikan atau izin asli.

Buat pengguna database sebelum mengimpor.

Setelah mengimpor data, ukuran penggunaan disk data Anda jauh lebih tinggi.

Mungkin terjadi penggunaan disk yang tidak terduga setelah mengimpor data. Penggunaan ini mungkin karena penggunaan pemulihan point-in-time.

Untuk mengatasi hal ini, setelah mengimpor data, nonaktifkan pemulihan point-in-time jika Anda ingin menghapus log dan memulihkan penyimpanan. Perlu diingat bahwa mengurangi penyimpanan yang digunakan tidak akan mengurangi ukuran penyimpanan yang disediakan untuk instance tersebut.

Pesan error: GRANT stderr: ERROR: must be member of role ROLE_NAME

Pesan error ini muncul jika Anda mencoba mengimpor file dump SQL yang diupload di Cloud Storage ke database Cloud SQL, dan tugas impor telah berjalan selama sekitar empat hari.

ROLE_NAME adalah peran database kustom yang ditentukan dalam database PostgreSQL sumber. Pengguna cloudsqlsuperuser default mengimpor file dump SQL. Namun, pengguna ini mungkin tidak termasuk dalam peran ROLE_NAME.

Untuk mengatasi masalah ini, selesaikan beberapa langkah berikut:

  1. Buat peran ROLE_NAME di database tujuan tempat Anda mengimpor file dump SQL.
  2. Jangan gunakan pengguna cloudsqlsuperuser untuk mengimpor file. Sebagai gantinya, di database tujuan, tetapkan pengguna yang merupakan anggota peran ROLE_NAME. Untuk menentukan pengguna, jalankan perintah berikut:

    gcloud sql import sql INSTANCE URI [--async]
    [--database=DATABASE, -d DATABASE] [--user=USER] [GCLOUD_WIDE_FLAG …]

Mengintegrasikan dengan Vertex AI

Masalah Pemecahan masalah
Pesan error: Google ML integration API is supported only on Postgres version 12 or above. Untuk mengaktifkan integrasi Vertex AI di Cloud SQL, Anda harus memiliki database Cloud SQL untuk PostgreSQL, versi 12 atau yang lebih baru. Untuk mengupgrade database ke versi ini, lihat Mengupgrade versi utama database yang diterapkan.
Pesan error: Google ML Integration API is not supported on shared core instance. Please upsize your machine type. Jika memilih core bersama untuk jenis mesin instance, Anda tidak dapat mengaktifkan integrasi Vertex AI di Cloud SQL. Upgrade jenis mesin Anda ke core khusus. Untuk mengetahui informasi selengkapnya, lihat Jenis Mesin.
Pesan error: Google ML Integration is unsupported for this maintenance version. Please follow https://cloud.google.com/sql/docs/postgres/self-service-maintenance to update the maintenance version of the instance. Untuk mengaktifkan integrasi Vertex AI di Cloud SQL, versi pemeliharaan instance Anda harus R20240130 atau yang lebih baru. Untuk mengupgrade instance ke versi ini, lihat Pemeliharaan mandiri.
Pesan error: Cannot invoke ml_predict_row if 'cloudsql.enable_google_ml_integration' is off. Flag database cloudsql.enable_google_ml_integration dinonaktifkan. Cloud SQL tidak dapat berintegrasi dengan Vertex AI.

Untuk mengaktifkan tanda ini, gunakan perintah gcloud sql instances patch:

gcloud sql instances patch INSTANCE_NAME --database-flags cloudsql.enable_google_ml_integration=on

Ganti INSTANCE_NAME dengan nama instance Cloud SQL utama.
Pesan error: Failed to connect to remote host: Connection refused. Integrasi antara Cloud SQL dan Vertex AI tidak diaktifkan. Untuk mengaktifkan integrasi ini, gunakan perintah gcloud sql instances patch:

gcloud sql instances patch INSTANCE_NAME
--enable-google-ml-integration


Ganti INSTANCE_NAME dengan nama instance Cloud SQL utama.
Pesan error: Vertex AI API has not been used in project PROJECT_ID before or it is disabled. Enable it by visiting /apis/api/aiplatform.googleapis.com/overview?project=PROJECT_ID then retry. Vertex AI API tidak diaktifkan. Untuk mengetahui informasi selengkapnya tentang cara mengaktifkan API ini, lihat Mengaktifkan integrasi database dengan Vertex AI.
Pesan error: Permission 'aiplatform.endpoints.predict' denied on resource. Izin Vertex AI tidak ditambahkan ke akun layanan Cloud SQL untuk project tempat instance Cloud SQL berada. Untuk mengetahui informasi selengkapnya tentang cara menambahkan izin ini ke akun layanan, lihat Mengaktifkan integrasi database dengan Vertex AI.
Pesan error: Publisher Model `projects/PROJECT_ID/locations/REGION_NAME/publishers/google/models/MODEL_NAME` not found. Model machine learning atau LLM tidak ada di Vertex AI.
Pesan error: Resource exhausted: grpc: received message larger than max. Ukuran permintaan yang diteruskan Cloud SQL ke Vertex AI melebihi batas gRPC sebesar 4 MB per permintaan.
Pesan error: Cloud SQL attempts to send a request to Vertex AI. However, the instance is in the %s region, but the Vertex AI endpoint is in the %s region. Make sure the instance and endpoint are in the same region. Cloud SQL mencoba mengirim permintaan ke Vertex AI. Namun, instance berada di satu region, tetapi endpoint Vertex AI berada di region yang berbeda. Untuk mengatasi masalah ini, instance dan endpoint harus berada di region yang sama.
Pesan error: The Vertex AI endpoint isn't formatted properly. Endpoint Vertex AI tidak diformat dengan benar. Untuk mengetahui informasi selengkapnya, lihat Menggunakan endpoint pribadi untuk prediksi online.
Pesan error: Quota exceeded for aiplatform.googleapis.com/online_prediction_requests_per_base_model with base model: textembedding-gecko. Jumlah permintaan yang diteruskan Cloud SQL ke Vertex AI melebihi batas 1.500 permintaan per menit per region per model per project.

Logging

Masalah Pemecahan masalah
Logging menggunakan banyak CPU dan memori pada instance Cloud SQL Anda. Logging perlu untuk disesuaikan.

Flag log_statement dapat disetel ke tidak ada dan flag logging_collector dapat disetel ke nonaktif. Jika logging masih terjadi, mungkin ada flag terkait log lainnya yang dapat disesuaikan. Anda dapat mengedit instance untuk mengubah flag ini.

Log audit tidak ditemukan. Log Akses Data hanya ditulis jika operasi merupakan panggilan API berbasis pengguna yang diautentikasi yang membuat, mengubah, atau membaca data yang dibuat pengguna, atau jika operasi mengakses file konfigurasi atau metadata resource.
Informasi operasi tidak ditemukan dalam log. Anda ingin menemukan informasi selengkapnya tentang suatu operasi.

Misalnya, pengguna telah dihapus tetapi Anda tidak dapat mengetahui siapa yang melakukannya. Log menunjukkan operasi dimulai tetapi tidak memberikan informasi lebih lanjut. Anda harus mengaktifkan logging audit agar informasi identitas pribadi (PII) yang mendetail seperti ini dapat dicatat ke dalam log.

File log sulit dibaca. Anda lebih suka melihat log sebagai json atau teks.Anda dapat menggunakan perintah gcloud logging read bersama dengan perintah pasca-pemrosesan linux untuk mendownload log.

Untuk mendownload log sebagai JSON:

gcloud logging read \
"resource.type=cloudsql_database \
AND logName=projects/PROJECT_ID \
/logs/cloudsql.googleapis.com%2FLOG_NAME" \
--format json \
--project=PROJECT_ID \
--freshness="1d" \
> downloaded-log.json
    

Untuk mendownload log sebagai TEXT:

gcloud logging read \
"resource.type=cloudsql_database \
AND logName=projects/PROJECT_ID \
/logs/cloudsql.googleapis.com%2FLOG_NAME" \
--format json \
--project=PROJECT_ID \
--freshness="1d"| jq -rnc --stream 'fromstream(1|truncate_stream(inputs)) \
| .textPayload' \
--order=asc
> downloaded-log.txt
   
Log kueri tidak ditemukan di log PostgreSQL. Anda perlu mengaktifkan flag pgaudit.
  1. Dari terminal, hubungkan ke database Anda:
    gcloud sql connect INSTANCE_NAME
          
  2. Jalankan perintah ini untuk membuat ekstensi:
    CREATE EXTENSION pgaudit;
          
  3. Keluar dari database, dan jalankan perintah berikut dari terminal:
    gcloud sql instances patch INSTANCE_NAME \
    --database-flags=cloudsql.enable_pgaudit=on,pgaudit.log=all
         

Mengelola instance

Masalah Pemecahan masalah
Anda ingin mengetahui kueri apa yang sedang berjalan. Hubungkan ke database dan jalankan kueri berikut:

SELECT datname, usename, application_name as appname, client_addr, state, now() - backend_start as conn_age, now() - xact_start as xact_age, now() - query_start as query_age, now() - state_change as last_activity_age, wait_event_type, wait_event, query FROM pg_stat_activity WHERE state <> 'idle' ORDER BY 8 DESC LIMIT 20;

Anda ingin mengetahui unit apa yang digunakan untuk kolom tertentu. Hubungkan ke database dan jalankan kueri berikut (menggunakan FIELD_NAME Anda sendiri):

SELECT name, setting, unit FROM pg_settings WHERE name = 'FIELD_NAME'.

Anda ingin menemukan nilai saat ini dari setelan database. Hubungkan ke database dan jalankan kueri berikut (menggunakan SETTING_NAME Anda sendiri):

SHOW SETTING_NAME;

Jalankan SHOW ALL; untuk melihat seluruh setelan.

Anda ingin menghentikan proses latar belakang yang diblokir. Pengguna harus memiliki peran pg_signal_backend.

Jalankan perintah berikut:

  1.       GRANT pg_signal_backend TO USERNAME;
          
  2. Temukan ID proses dari proses yang diblokir atau macet:
          SELECT pid, usename, state, query FROM pg_stat_activity;
          
  3. Hentikan proses yang sedang berjalan atau tidak aktif menggunakan perintah berikut:
          SELECT pg_cancel_backend(pid)
                FROM pg_stat_activity
                WHERE usename = 'USERNAME';
          
          
          SELECT pg_terminate_backend(pid)
                FROM pg_stat_activity
                WHERE usename = 'USERNAME';
          
          
Instance hampir mencapai 100% pemakaian ID transaksi. Pemantauan internal Anda memperingatkan bahwa instance hampir mencapai 100% pemakaian ID transaksi. Anda ingin menghindari wraparound transaksi yang dapat memblokir penulisan.

Tugas autovacuum mungkin diblokir, atau mungkin tidak mengklaim kembali ID transaksi dengan cukup cepat untuk mengimbangi workload.

Untuk menghindari pemadaman layanan karena masalah wraparound transaksi, Anda dapat meninjau tips layanan mandiri ini untuk menangani wraparound TXID.

Untuk saran penyesuaian umum, lihat Mengoptimalkan, memantau, dan memecahkan masalah operasi vacuum di PostgreSQL.

Penyimpanan sementara meningkatkan penyimpanan otomatis. Penyimpanan otomatis diaktifkan.

Proses mulai ulang akan menghapus file sementara, tetapi tidak mengurangi penyimpanan. Hanya dukungan pelanggan yang dapat mereset ukuran instance.

Data sedang dihapus secara otomatis. Sebuah skrip kemungkinan besar sedang berjalan di suatu tempat di lingkungan Anda.

Periksa log di sekitar waktu penghapusan dan periksa apakah ada skrip berbahaya yang berjalan dari dasbor atau proses otomatis lainnya.

Instance tidak dapat dihapus. Anda mungkin melihat pesan error ERROR: (gcloud.sql.instances.delete) HTTP Error 409: The instance or operation is not in an appropriate state to handle the request, atau instance mungkin memiliki status flag INSTANCE_RISKY_FLAG_CONFIG.

Beberapa kemungkinan penjelasan meliputi:

  • Operasi lain sedang berlangsung. Operasi Cloud SQL tidak berjalan secara bersamaan. Tunggu hingga operasi lainnya selesai.
  • Peringatan INSTANCE_RISKY_FLAG_CONFIG dipicu setidaknya setiap kali satu flag beta digunakan. Hapus setelan flag yang berisiko dan mulai ulang instance
Instance macet karena ukuran data sementara yang besar. Sistem dapat membuat banyak tabel sementara sekaligus, bergantung pada kueri dan beban.

Sayangnya, Anda tidak dapat mengecilkan file ibtmp1 dengan metode apa pun selain memulai ulang layanan.

Salah satu opsi mitigasi adalah membuat tabel sementara dengan ROW_FORMAT=COMPRESSED, sehingga tabel tersebut disimpan dalam tablespace file per tabel di direktori file sementara. Namun, kelemahannya adalah biaya performa yang terkait dengan pembuatan dan penghapusan tablespace file per tabel untuk setiap tabel sementara.

Terjadi error fatal selama upgrade berlangsung. Log mungkin menampilkan lebih banyak data. Meskipun begitu, dukungan pelanggan mungkin diperlukan untuk membuat ulang instance secara paksa.
Instance macet saat memulai ulang setelah kehabisan kapasitas disk. Kemampuan peningkatan penyimpanan otomatis tidak diaktifkan.

Jika penyimpanan instance habis, dan kemampuan peningkatan penyimpanan otomatis tidak diaktifkan, instance Anda akan offline. Untuk menghindari masalah ini, Anda dapat mengedit instance untuk mengaktifkan peningkatan penyimpanan otomatis.

Instance utama lokal Anda terhambat. Google Cloud tidak dapat membantu instance yang tidak ada di Cloud SQL.
Penonaktifan berjalan lambat saat memulai ulang. Saat suatu instance dimatikan, semua koneksi yang belum selesai dan tidak berakhir dalam 60 detik akan mengakibatkan proses penonaktifan berantakan.

Dengan memiliki koneksi yang dapat bertahan kurang dari 60 detik, sebagian besar penonaktifan yang berantakan dapat dihindari, termasuk koneksi dari command prompt database. Jika Anda membiarkan koneksi ini terbuka selama berjam-jam atau bahkan berhari-hari, maka proses penonaktifan bisa jadi berantakan.

Pengguna tidak dapat dihapus. Pengguna tersebut mungkin memiliki objek dalam database yang bergantung padanya. Anda harus menghapus objek tersebut atau mengalihkannya ke pengguna lain.

Cari tahu objek mana yang bergantung pada pengguna tersebut, lalu hapus atau alihkan objek tersebut ke pengguna yang berbeda.

Thread di Pertukaran Stack ini membahas cara menemukan objek yang dimiliki oleh pengguna.
Kueri tertentu berjalan lambat. Kueri dapat berjalan lambat karena berbagai alasan, sebagian besar disebabkan oleh aspek database tertentu. Salah satu alasan yang dapat melibatkan Cloud SQL adalah latensi jaringan, yaitu saat resource sumber (penulis atau pembaca) dan resource tujuan (Cloud SQL) berada di region yang berbeda.

Lihat tips performa umum secara khusus.

Untuk penyisipan, update, atau penghapusan database yang berjalan lambat, pertimbangkan tindakan berikut:

  • Periksa lokasi penulis dan database; mengirim data jarak jauh dapat menyebabkan latensi.
  • Periksa lokasi pembaca dan database; latensi lebih memengaruhi performa baca daripada performa tulis

Untuk mengurangi latensi, sebaiknya tempatkan resource sumber dan tujuan di region yang sama.

Memori yang habis terindikasi, tetapi diagram pemantauan tidak menampilkannya. Instance dapat gagal dan melaporkan Out of memory, tetapi Konsol Google Cloud atau diagram Cloud Monitoring tampaknya menunjukkan bahwa masih ada memori yang tersisa.

Ada faktor lain selain workload Anda yang dapat memengaruhi penggunaan memori, seperti jumlah koneksi aktif dan proses overhead internal. Meskipun begitu, hal ini tidak selalu tercantum dalam diagram pemantauan.

Pastikan instance memiliki overhead yang cukup untuk memperhitungkan workload Anda serta beberapa overhead tambahan.

Memulihkan instance yang telah dihapus. Semua data pada instance, termasuk cadangan, akan hilang secara permanen saat instance tersebut dihapus.

Untuk menyimpan data Anda, sebaiknya ekspor data ke Cloud Storage sebelum menghapus instance.

Peran Admin Cloud SQL mencakup izin untuk menghapus instance. Untuk mencegah penghapusan yang tidak disengaja, berikan peran ini hanya jika diperlukan.

Anda ingin mengganti nama instance Cloud SQL yang ada. Cloud SQL tidak mendukung penggantian nama instance yang sudah ada.

Namun, ada cara lain untuk mencapai tujuan tersebut, yaitu dengan membuat instance baru.

  • Anda dapat meng-clone instance yang ingin diganti namanya dan menetapkan nama baru untuk instance yang di-clone. Cara ini memungkinkan Anda membuat instance baru tanpa harus mengimpor data secara manual. Sama seperti saat membuat instance baru, instance yang di-clone akan memiliki alamat IP baru.
  • Anda dapat mengekspor data dari instance ke dalam bucket Cloud Storage, membuat instance baru dengan nama baru yang diinginkan, lalu import data ke dalam instance baru tersebut.

Dalam kedua kasus seperti itu, Anda dapat menghapus instance lama setelah operasi selesai. Sebaiknya gunakan rute clone karena tidak akan berdampak pada performa dan tidak mengharuskan Anda mengulang langkah setelan konfigurasi instance apa pun seperti flag, jenis mesin, ukuran penyimpanan, dan memori.

Terjadi error saat menghapus instance. Jika perlindungan penghapusan diaktifkan, konfirmasi rencana Anda untuk menghapus instance tersebut. Selanjutnya, nonaktifkan perlindungan penghapusan sebelum menghapus instance.

Private Service Connect

Masalah Pemecahan masalah
Lampiran layanan instance tidak menerima endpoint Private Service Connect.
  1. Periksa status endpoint.

    gcloud

    Untuk memeriksa status, gunakan perintah
    gcloud compute forwarding-rules describe.

    gcloud compute forwarding-rules describe ENDPOINT_NAME \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    | grep pscConnectionStatus

    Lakukan penggantian berikut:

    • ENDPOINT_NAME: nama endpoint
    • PROJECT_ID: ID atau nomor project project Google Cloud yang berisi endpoint
    • REGION_NAME: nama region untuk endpoint

    REST

    Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

    • PROJECT_ID: ID atau nomor project project Google Cloud yang berisi endpoint Private Service Connect
    • REGION_NAME: nama region
    • ENDPOINT_NAME: nama endpoint

    Metode HTTP dan URL:

    GET https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION_NAME/forwardingRules/ENDPOINT_NAME

    Untuk mengirim permintaan, perluas salah satu opsi berikut:

    Anda akan melihat respons JSON seperti berikut:

    {
      "kind": "compute#forwardingRule",
      "id": "ENDPOINT_ID",
      "creationTimestamp": "2024-05-09T12:03:21.383-07:00",
      "name": "ENDPOINT_NAME",
      "region": "https://www.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION_NAME",
      "IPAddress": "IP_ADDRESS",
      "target": "https://www.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION_NAME/serviceAttachments/SERVICE_ATTACHMENT_NAME",
      "selfLink": "https://www.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION_NAME/forwardingRules/ENDPOINT_NAME",
      "network": "https://www.googleapis.com/compute/v1/projects/PROJECT_ID/global/networks/default",
      "serviceDirectoryRegistrations": [
        {
          "namespace": "goog-psc-default"
        }
      ],
      "networkTier": "PREMIUM",
      "labelFingerprint": "LABEL_FINGERPRINT_ID",
      "fingerprint": "FINGERPRINT_ID",
      "pscConnectionId": "CONNECTION_ID",
      "pscConnectionStatus": "ACCEPTED",
      "allowPscGlobalAccess": true
    }
    
  2. Verifikasi bahwa status endpoint adalah ACCEPTED. Jika statusnya adalah PENDING, berarti instance tidak mengizinkan project Google Cloud yang berisi endpoint. Pastikan project jaringan tempat endpoint dibuat diizinkan. Untuk mengetahui informasi selengkapnya, lihat Mengedit instance dengan Private Service Connect yang diaktifkan.

Replikasi

Masalah Pemecahan masalah
Replika baca tidak mulai direplikasi pada saat pembuatan. Mungkin ada error yang lebih spesifik di file log. Periksa log di Cloud Logging untuk menemukan error yang sebenarnya.
Tidak dapat membuat replika baca - error invalidFlagValue. Salah satu tanda dalam permintaan tidak valid. Ini bisa berupa tanda yang Anda berikan secara eksplisit atau tanda yang ditetapkan ke nilai default.

Pertama, pastikan nilai tanda max_connections lebih besar dari atau sama dengan nilai pada tanda utama.

Jika flag max_connections sudah ditetapkan dengan tepat, periksa log di Cloud Logging untuk menemukan error yang sebenarnya.

Tidak dapat membuat replika baca - error tidak diketahui. Mungkin ada error yang lebih spesifik di file log. Periksa log di Cloud Logging untuk menemukan error yang sebenarnya.

Jika error-nya adalah: set Service Networking service account as servicenetworking.serviceAgent role on consumer project, makan nonaktifkan dan aktifkan kembali Service Networking API. Tindakan ini akan membuat akun layanan yang diperlukan untuk melanjutkan prosesnya.

Disk penuh. Ukuran disk instance utama dapat penuh selama pembuatan replika. Edit instance utama untuk mengupgrade ke ukuran disk yang lebih besar.
Kapasitas disk meningkat secara signifikan. Slot yang tidak digunakan secara aktif untuk melacak data menyebabkan PostgreSQL menahan segmen WAL tanpa batas waktu sehingga kapasitas disk bertambah tanpa batas. Jika Anda menggunakan fitur replika dan decoding logis di Cloud SQL, slot replika akan dibuat dan dihapus secara otomatis. Slot replika yang tidak digunakan dapat dideteksi dengan membuat kueri pg_replication_slots tampilan sistem dan pemfilteran di kolom active. Slot yang tidak digunakan dapat dihapus untuk menghapus segmen WAL menggunakan perintah pg_drop_replication_slot.
Instance replika menggunakan terlalu banyak memori. Replika menggunakan memori sementara untuk meng-cache operasi baca yang sering diminta, yang dapat menyebabkannya menggunakan lebih banyak memori daripada instance utama.

Mulai ulang instance replika untuk mengklaim kembali ruang memori sementara.

Replikasi dihentikan. Batas penyimpanan maksimum tercapai dan peningkatan penyimpanan otomatis tidak diaktifkan.

Edit instance untuk mengaktifkan automatic storage increase.

Jeda replikasi selalu tinggi. Beban tulis terlalu tinggi untuk ditangani replika. Kelambatan replikasi terjadi saat thread SQL pada replika tidak dapat mengikuti thread IO. Beberapa jenis kueri atau beban kerja dapat menyebabkan kelambatan replikasi tinggi yang bersifat sementara atau permanen untuk skema tertentu. Beberapa penyebab umum kelambatan replikasi adalah:
  • Kueri lambat pada replika. Temukan dan perbaiki.
  • Semua tabel harus memiliki kunci utama/unik. Setiap update pada tabel tersebut tanpa kunci utama/unik akan menyebabkan pemindaian tabel penuh pada replika tersebut.
  • Kueri seperti DELETE ... WHERE field < 50000000 menyebabkan kelambatan replikasi dengan replikasi berbasis baris karena sejumlah besar update tertumpuk di replika.

Beberapa kemungkinan solusinya mencakup:

  • Edit instance untuk meningkatkan ukuran replika.
  • Kurangi beban pada database.
  • Kirim traffic baca ke replika baca.
  • Indeks tabel.
  • Iidentifikasi dan perbaiki kueri penulisan yang lambat.
  • Membuat ulang replika.
Terjadi error saat membangun ulang indeks di PostgreSQL 9.6. Anda mendapatkan pemberitahuan terjadinya error dari PostgreSQL yang menginformasikan bahwa Anda perlu membangun ulang indeks tertentu. Tindakan ini hanya dapat dilakukan pada instance utama. Jika Anda membuat instance replika baru, maka error yang sama akan segera terjadi lagi. Indeks hash tidak diterapkan ke replika pada versi PostgreSQL di bawah 10.

Jika Anda harus menggunakan indeks hash, upgrade ke PostgreSQL 10+. Atau, jika Anda juga ingin menggunakan replika, jangan gunakan indeks hash di PostgreSQL 9.6.

Kueri pada instance utama selalu berjalan. Setelah membuat replika, kueri SELECT * from pg_stat_activity where state = 'active' and pid = XXXX and username = 'cloudsqlreplica' diharapkan dapat berjalan secara terus-menerus pada instance utama Anda
Pembuatan replika gagal karena waktu tunggu habis. Transaksi tanpa komitmen yang berjalan lama pada instance utama dapat menyebabkan pembuatan replika baca gagal.

Buat ulang replika setelah menghentikan semua kueri yang berjalan.

Jika instance utama dan replika memiliki ukuran vCPU yang berbeda, mungkin ada masalah performa kueri karena pengoptimal kueri memperhitungkan ukuran vCPU.

Untuk mengatasi masalah ini, selesaikan beberapa langkah berikut:

  1. Aktifkan tanda log_duration dan tetapkan parameter log_statement ke ddl. Tindakan ini akan memberi Anda kueri dan waktu proses di database. Namun, bergantung pada beban kerja Anda, hal ini dapat menyebabkan masalah performa.
  2. Pada instance utama dan replika baca, jalankan explain analyze untuk kueri.
  3. Bandingkan rencana kueri dan periksa perbedaannya.

Jika ini adalah kueri tertentu, ubah kueri. Misalnya, Anda dapat mengubah urutan join untuk melihat apakah Anda mendapatkan performa yang lebih baik.