Dokumen ini menjelaskan cara membuat dan mengelola bucket Cloud Logging menggunakan Konsol Google Cloud, Google Cloud CLI, dan Logging API.
Referensi ini juga memberikan petunjuk untuk membuat dan mengelola bucket log di level project Google Cloud. Anda tidak dapat membuat bucket log di tingkat folder atau organisasi. Namun, Cloud Logging otomatis membuat bucket _Default
dan _Required
di tingkat folder dan organisasi untuk Anda.
Anda dapat mengupgrade bucket log untuk menggunakan Log Analytics. Analisis Log memungkinkan Anda menjalankan kueri SQL pada data log, sehingga membantu Anda memecahkan masalah aplikasi, keamanan, dan jaringan. Anda juga dapat menggunakan BigQuery untuk melihat data yang tersimpan di bucket log saat bucket log diupgrade untuk menggunakan Log Analytics dan saat set data BigQuery tertaut ada. Membuat set data tertaut memungkinkan Anda menggabungkan data log dengan data lain yang disimpan di BigQuery, dan mengakses data dari alat lain seperti Looker Studio dan Looker.
Untuk ringkasan konseptual bucket, lihat Ringkasan pemilihan rute dan penyimpanan: Bucket log.
Sebelum memulai
Untuk mulai menggunakan bucket, lakukan hal berikut:
Pastikan Anda telah mengaktifkan penagihan untuk project Google Cloud.
Pastikan peran Identity and Access Management (IAM) memberi Anda izin yang diperlukan untuk membuat, mengupgrade, dan menautkan bucket.
Peran Logs Configuration Writer (
roles/logging.configWriter
) adalah peran minimal yang telah ditetapkan, yang memberikan izin yang diperlukan untuk mengelola bucket. Untuk mengetahui daftar lengkap izin dan peran, baca Kontrol akses dengan IAM.Pahami persyaratan pemformatan
LogBucket
, termasuk region yang didukung tempat Anda dapat menyimpan log.Sebaiknya tetapkan lokasi resource default guna menerapkan region penyimpanan default untuk bucket
_Required
dan_Default
di organisasi Anda.Untuk menggunakan BigQuery agar dapat melihat data yang disimpan di bucket log, lakukan langkah berikut:
Pastikan BigQuery API diaktifkan. Anda dapat memastikan bahwa API sudah diaktifkan dengan mencantumkan layanan yang tersedia.
Peran Identity and Access Management Anda mencakup izin yang memungkinkan Anda membuat set data tertaut. Untuk mengetahui informasi selengkapnya, lihat Izin untuk set data BigQuery tertaut.
Untuk informasi tentang cara membuat bucket log yang menggunakan kunci enkripsi yang dikelola pelanggan (Customer-Managed Encryption Key/CMEK), lihat Mengonfigurasi CMEK untuk penyimpanan log.
Membuat bucket
Anda dapat membuat maksimum 100 bucket per project Google Cloud.
Untuk membuat bucket log yang ditentukan pengguna untuk project Google Cloud Anda, lakukan hal berikut:
Konsol Google Cloud
Untuk membuat bucket log di project Google Cloud, lakukan langkah berikut:
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Klik Create log bucket.
Masukkan Name dan Description untuk bucket Anda.
Opsional: Upgrade bucket Anda untuk menggunakan Log Analytics.
Pilih Upgrade untuk menggunakan Log Analytics.
Saat mengupgrade bucket untuk menggunakan Log Analytics, Anda dapat membuat kueri log di halaman Log Analytics menggunakan kueri SQL. Anda juga dapat terus melihat log dengan menggunakan Logs Explorer.
Tidak semua wilayah didukung untuk Log Analytics. Untuk mengetahui informasi selengkapnya, lihat Wilayah yang didukung.
Opsional: Untuk melihat log di BigQuery, pilih Create a new BigQuery dataset that links to this bucket, lalu masukkan nama set data yang unik.
Jika opsi ini dipilih, BigQuery dapat membaca data yang tersimpan di bucket log Anda. Kini Anda dapat membuat kueri di antarmuka BigQuery tempat Anda dapat menggabungkan data log, dan juga mengakses data dari alat lain seperti Looker Studio dan Looker.
Opsional: Untuk memilih region penyimpanan bagi log Anda, klik menu Select log bucket region, lalu pilih region. Jika Anda tidak memilih region, region
global
akan digunakan, yang berarti log dapat secara fisik berada di salah satu region.Opsional: Untuk menetapkan periode retensi kustom untuk log di bucket, klik Next.
Di kolom Retention period, masukkan jumlah hari, antara 1 hari hingga 3.650 hari, saat Anda ingin Cloud Logging mempertahankan log Anda. Jika Anda tidak menyesuaikan periode retensi data, defaultnya adalah
30 days
.Anda juga dapat memperbarui bucket untuk menerapkan retensi khusus setelah membuatnya.
Klik Create bucket.
Setelah bucket log dibuat, Logging akan mengupgrade bucket dan membuat link set data jika opsi ini dipilih.
Mungkin perlu waktu beberapa saat untuk menyelesaikan langkah-langkah ini.
gcloud
Untuk membuat bucket log saja, jalankan perintah gcloud logging buckets create
. Jika Anda ingin mengupgrade bucket log untuk menggunakan Log Analytics, sertakan flag --enable-analytics
dan --async
, serta pastikan Anda menetapkan variabel LOCATION ke region yang didukung untuk Log Analytics:
gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Flag --async
memaksa
perintah menjadi asinkron. Hasil
metode asinkron adalah objek Operation
, yang
berisi informasi tentang progres metode. Setelah
metode selesai, objek Operation
akan berisi status. Untuk mengetahui informasi
selengkapnya, lihat Metode API asinkron.
Jika Anda tidak ingin mengupgrade bucket log untuk menggunakan Log Analytics, hapus tanda --enable-analytics
dan --async
. Anda dapat menetapkan variabel LOCATION ke wilayah mana pun yang didukung.
Misalnya, jika Anda ingin membuat bucket dengan BUCKET_ID
my-bucket
di region asia-east2
, perintah Anda akan terlihat seperti
berikut:
gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"
Misalnya, untuk membuat bucket dengan BUCKET_ID
my-upgraded-bucket
di lokasi us
, lalu mengupgrade bucket log untuk menggunakan Log Analytics, perintah Anda akan terlihat seperti berikut:
gcloud logging buckets create my-upgraded-bucket --location us \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
API
Untuk membuat bucket, gunakan
metode
projects.locations.buckets.create
atau
projects.locations.buckets.createAsync
. Siapkan argumen ke metode sebagai berikut:
Tetapkan parameter
parent
menjadi resource untuk membuat bucket:projects/PROJECT_ID/locations/LOCATION
Variabel LOCATION mengacu pada region tempat Anda ingin log disimpan. Tidak semua wilayah didukung untuk Log Analytics. Untuk mengetahui informasi selengkapnya, lihat Wilayah yang didukung.
Misalnya, jika Anda ingin membuat bucket untuk project
my-project
di regionasia-east2
, parameterparent
akan terlihat seperti ini:projects/my-project/locations/asia-east2
Tetapkan parameter
bucketId
; misalnya,my-bucket
.Lakukan salah satu hal berikut:
Untuk membuat bucket log, lalu mengupgrade bucket log agar menggunakan Log Analytics:
Tetapkan boolean
LogBucket.analyticsEnabled
ketrue
.Panggil metode asinkron
projects.locations.buckets.createAsync
untuk membuat bucket.Respons terhadap metode asinkron adalah objek
Operation
. Objek ini berisi informasi tentang progres metode. Saat metode selesai, objekOperation
akan berisi status. Untuk mengetahui informasi selengkapnya, lihat Metode API asinkron.Metode
createAsync
memerlukan waktu beberapa menit untuk diselesaikan. Metode ini tidak menghasilkan pesan error atau gagal saat booleananalyticsEnabled
ditetapkan ketrue
dan region tidak didukung untuk bucket yang diupgrade. Misalnya, jika Anda menetapkan lokasi keasia-east2
, bucket log akan dibuat tetapi bucket tidak diupgrade untuk menggunakan Log Analytics.
Jika tidak, panggil metode sinkron
projects.locations.buckets.create
untuk membuat bucket.
Setelah membuat bucket, buat sink untuk merutekan entri log ke bucket Anda dan konfigurasi tampilan log untuk mengontrol siapa yang dapat mengakses log di bucket baru Anda dan log mana yang dapat diakses oleh mereka. Anda juga dapat memperbarui bucket untuk mengonfigurasi retensi kustom dan kolom yang dibatasi.
Melacak volume log yang disimpan di bucket log
Halaman Logs Storage di Konsol Google Cloud melacak volume data log yang disimpan di bucket log:
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Halaman Logs Storage menampilkan ringkasan statistik untuk project Google Cloud Anda:
Statistik berikut dilaporkan:
Penyerapan bulan berjalan: Jumlah data log yang disimpan oleh project Google Cloud Anda di bucket log sejak hari pertama bulan kalender saat ini.
Penyerapan bulan sebelumnya: Jumlah data log yang disimpan oleh project Google Cloud Anda di bucket log pada bulan kalender terakhir.
Penyerapan yang diproyeksikan oleh EOM: Perkiraan jumlah data log yang akan disimpan oleh project Google Cloud Anda di bucket log pada akhir bulan kalender saat ini, berdasarkan penggunaan saat ini.
Penyimpanan yang dapat ditagih bulan berjalan: Jumlah data log yang telah dipertahankan selama lebih dari 30 hari yang ditagih.
Statistik sebelumnya tidak menyertakan log di bucket _Required
. Log dalam bucket tersebut tidak dapat dikecualikan atau dinonaktifkan.
Halaman Router Log di Konsol Google Cloud menyediakan alat yang dapat Anda gunakan untuk meminimalkan biaya penyimpanan log di bucket log atau untuk penyimpanan yang melebihi alokasi bulanan Anda. Anda dapat melakukan hal berikut:
- Menonaktifkan log agar tidak disimpan di level bucket.
- Mengecualikan entri log tertentu agar tidak disimpan dalam bucket log.
Untuk mengetahui informasi selengkapnya, lihat Mengelola sink.
Mengelola bucket
Bagian ini menjelaskan cara mengelola bucket log menggunakan Google Cloud CLI atau Konsol Google Cloud.
Memperbarui bucket
Untuk memperbarui properti bucket, seperti deskripsi atau periode retensi, lakukan hal berikut:
Konsol Google Cloud
Untuk memperbarui properti bucket, lakukan hal berikut:
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Untuk bucket yang ingin Anda perbarui, klik more_vert Lainnya.
Pilih Edit bucket.
Edit bucket sesuai kebutuhan.
Klik Update bucket.
gcloud
Untuk memperbarui properti bucket, jalankan perintah gcloud logging buckets update
:
gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Contoh:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
API
Untuk memperbarui properti bucket, gunakan projects.locations.buckets.patch
di Logging API.
Mengupgrade bucket untuk menggunakan Log Analytics
Untuk mengupgrade bucket yang ada agar dapat menggunakan Log Analytics, pembatasan berikut berlaku:
- Bucket log dibuat di level project Google Cloud.
- Bucket log tidak terkunci kecuali jika bucket tersebut adalah bucket
_Required
. - Tidak ada update yang tertunda pada bucket.
Tidak semua wilayah didukung untuk Log Analytics. Untuk mengetahui informasi selengkapnya, lihat Wilayah yang didukung.
Konsol Google Cloud
Untuk mengupgrade bucket yang ada agar dapat menggunakan Log Analytics, lakukan langkah berikut:
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Temukan bucket yang ingin Anda upgrade.
Saat kolom Log Analytics available menampilkan Upgrade, Anda dapat mengupgrade bucket log untuk menggunakan Log Analytics. Klik Upgrade.
Dialog akan terbuka. Klik Confirm.
gcloud
Untuk mengupgrade bucket log agar dapat menggunakan Log Analytics, jalankan perintah gcloud logging buckets update
. Anda harus menetapkan flag --enable-analytics
, dan sebaiknya sertakan juga flag --async
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Flag --async
memaksa
perintah menjadi asinkron. Hasil dari metode
asinkron adalah objek Operation
, dan
berisi informasi tentang progres metode. Setelah
metode selesai, objek Operation
akan berisi status. Untuk mengetahui informasi
selengkapnya, lihat Metode API asinkron.
API
Untuk mengupgrade bucket log agar dapat menggunakan Log Analytics, gunakan metode projects.locations.buckets.updateAsync
dari Cloud Logging API.
Siapkan argumen ke metode sebagai berikut:
- Tetapkan boolean
LogBucket.analyticsEnabled
ketrue
. - Untuk parameter kueri perintah, gunakan
updateMask=analyticsEnabled
.
Respons terhadap metode asinkron adalah
objek Operation
. Objek ini berisi
informasi tentang progres metode. Saat metode
selesai, objek Operation
akan berisi status. Untuk mengetahui informasi selengkapnya,
lihat Metode API asinkron.
Mungkin perlu waktu beberapa menit untuk menyelesaikan updateAsync
.
Membuat set data BigQuery tertaut
Jika Anda ingin menggunakan kemampuan BigQuery untuk menganalisis data log, upgrade bucket log untuk menggunakan Log Analytics, lalu buat set data tertaut. Dengan konfigurasi ini, Anda dapat menggunakan BigQuery untuk membaca log yang tersimpan di bucket log.
Konsol Google Cloud
Untuk membuat link ke set data BigQuery untuk bucket log yang sudah ada, lakukan langkah berikut:
Tinjau bagian Sebelum memulai di dokumen ini.
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Temukan bucket log dan pastikan kolom Log Analytics available menampilkan Open.
Jika kolom ini menampilkan Upgrade, berarti bucket log belum diupgrade untuk menggunakan Log Analytics. Mengonfigurasi Log Analytics:
- Klik Upgrade.
- Klik Confirm dalam dialog.
Setelah upgrade selesai, lanjutkan ke langkah berikutnya.
Di bucket log, klik Moremore_vert, lalu klik Edit bucket.
Dialog Edit bucket log akan terbuka.
Pilih Create a new BigQuery set data that links to this bucket, lalu masukkan nama untuk set data baru.
Nama set data untuk setiap project Google Cloud harus unik. Jika Anda memasukkan nama set data yang ada, Anda akan menerima error berikut:
Dataset name must be unique in the selected region.
Klik Done, lalu klik Update bucket.
Setelah Logging menampilkan nama set data yang ditautkan di halaman Logs Storage, mungkin perlu waktu beberapa menit sebelum BigQuery mengenali set data tersebut.
gcloud
Guna membuat set data tertaut untuk bucket log yang diupgrade agar menggunakan Log Analytics, jalankan perintah gcloud logging links create
:
gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Kolom LINK_ID untuk project Google Cloud Anda harus unik.
Perintah links create
bersifat asinkron. Hasil
metode asinkron adalah objek Operation
, dan
berisi informasi tentang progres metode. Setelah
metode selesai, objek Operation
akan berisi status. Untuk mengetahui informasi
selengkapnya, lihat Metode API asinkron.
Penyelesaian perintah links create
akan memerlukan waktu beberapa menit.
Misalnya, perintah berikut akan membuat set data tertaut untuk bucket dengan nama my-bucket
:
gcloud logging links create mylink --bucket=my-bucket --location=global
Nama set data untuk setiap project Google Cloud harus unik. Jika Anda mencoba membuat set data dengan nama yang sama seperti set data yang sudah ada, Anda akan menerima error berikut:
BigQuery dataset with name "my-bucket" already exists.
Jika Anda mencoba membuat set data tertaut untuk bucket log yang belum diupgrade untuk menggunakan Log Analytics, error berikut akan dilaporkan:
A link can only be created for an analytics-enabled bucket.
API
Agar dapat membuat set data BigQuery tertaut untuk bucket log yang ada dan diupgrade menggunakan Log Analytics, panggil metode projects.locations.buckets.links.create
asinkron dari Cloud Logging API.
Siapkan argumen ke metode sebagai berikut:
- Buat isi permintaan untuk perintah
create
. Isi permintaan diformat sebagai objekLink
. - Untuk parameter kueri perintah, gunakan
linkId=LINK_ID
. LINK_ID yang Anda berikan akan digunakan sebagai nama set data, sehingga LINK_ID memiliki nilai yang sama dengan DATASET_ID khusus output.
Respons terhadap metode asinkron adalah
objek Operation
. Objek ini berisi
informasi tentang progres metode. Setelah
metode selesai, objek Operation
akan berisi status. Untuk mengetahui informasi
selengkapnya, lihat Metode API asinkron.
Metode links.create
memerlukan waktu beberapa menit untuk diselesaikan.
Nama set data untuk setiap project Google Cloud harus unik. Jika Anda mencoba membuat set data dengan nama yang sama seperti set data yang sudah ada, Anda akan menerima error berikut:
BigQuery dataset with name "my-bucket" already exists.
Jika Anda mencoba membuat set data tertaut untuk bucket log yang belum diupgrade untuk menggunakan Log Analytics, error berikut akan dilaporkan:
A link can only be created for an analytics-enabled bucket.
Mengunci bucket
Saat mengunci bucket dari update, Anda juga mengunci kebijakan retensi bucket. Setelah kebijakan retensi dikunci, Anda tidak dapat menghapus bucket sampai setiap entri log dalam bucket memenuhi periode retensi bucket.
Untuk mencegah siapa pun memperbarui atau menghapus bucket log, kunci bucket. Untuk mengunci bucket, lakukan langkah berikut:
Konsol Google Cloud
Konsol Google Cloud tidak mendukung penguncian bucket log.
gcloud
Untuk mengunci bucket, jalankan perintah gcloud logging buckets update
dengan flag --locked
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Contoh:
gcloud logging buckets update my-bucket --location=global --locked
API
Untuk mengunci atribut bucket, gunakan projects.locations.buckets.patch
di Logging API. Setel parameter locked
ke true
.
Membuat daftar bucket
Untuk menampilkan daftar bucket log yang terkait dengan project Google Cloud, dan untuk melihat detail seperti setelan retensi, lakukan langkah berikut:
Konsol Google Cloud
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Tabel bernama Log bucket mencantumkan bucket yang terkait dengan project Google Cloud saat ini.
Tabel ini mencantumkan atribut berikut untuk setiap bucket log:
- Name: Nama bucket log.
- Deskripsi: Deskripsi bucket.
- Periode retensi: Jumlah hari data bucket akan disimpan oleh Cloud Logging.
- Region: Lokasi geografis tempat data bucket disimpan.
- Status: Apakah bucket dikunci atau tidak terkunci.
Jika bucket menunggu penghapusan oleh Cloud Logging, entri tabelnya akan diberi anotasi warning peringatan.
gcloud
Jalankan perintah gcloud logging buckets list
:
gcloud logging buckets list
Anda akan melihat atribut berikut untuk bucket log:
LOCATION
: Region tempat data bucket disimpan.BUCKET_ID
: Nama bucket log.RETENTION_DAYS
: Jumlah hari data bucket akan disimpan oleh Cloud Logging.LIFECYCLE_STATE
: Menunjukkan apakah bucket menunggu penghapusan oleh Cloud Logging.LOCKED
: Apakah bucket dikunci atau tidak terkunci.CREATE_TIME
: Stempel waktu yang menunjukkan kapan bucket dibuat.UPDATE_TIME
: Stempel waktu yang menunjukkan kapan bucket terakhir diubah.
Anda juga dapat melihat atribut hanya untuk satu bucket. Misalnya, untuk melihat detail bucket log _Default
di region global
, jalankan perintah gcloud logging buckets describe
:
gcloud logging buckets describe _Default --location=global
API
Untuk menampilkan daftar bucket log yang terkait dengan project Google Cloud, gunakan
projects.locations.buckets.list
di Logging API.
Melihat detail bucket
Untuk melihat detail bucket log tunggal, lakukan langkah berikut:
Konsol Google Cloud
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Di bucket log, klik more_vert More, lalu pilih View bucket details.
Dialog ini akan mencantumkan atribut berikut untuk bucket log:
- Name: Nama bucket log.
- Deskripsi: Deskripsi bucket log.
- Periode retensi: Jumlah hari data bucket akan disimpan oleh Cloud Logging.
- Region: Lokasi geografis tempat data bucket disimpan.
- Analisis log: Menunjukkan apakah bucket Anda diupgrade untuk menggunakan Log Analytics.
- Analisis BigQuery: Menunjukkan apakah set data BigQuery ditautkan ke bucket Anda.
- Set data BigQuery: Memberikan link ke set data BigQuery, yang akan terbuka di halaman BigQuery Studio. Tanggal pengaktifan penautan BigQuery juga akan ditampilkan.
gcloud
Jalankan perintah gcloud logging buckets describe
.
Misalnya, perintah berikut melaporkan detail bucket
_Default
:
gcloud logging buckets describe _Default --location=global
Anda akan melihat atribut berikut untuk bucket log:
createTime
: Stempel waktu yang menunjukkan kapan bucket dibuat.description
: Deskripsi bucket log.lifecycleState
: Menunjukkan apakah bucket menunggu penghapusan oleh Cloud Logging.name
: Nama bucket log.retentionDays
: Jumlah hari data bucket akan disimpan oleh Cloud Logging.updateTime
: Stempel waktu yang menunjukkan kapan bucket terakhir diubah.
API
Untuk melihat detail bucket log tunggal, gunakan projects.locations.buckets.get
di Logging API.
Menghapus bucket
Untuk menghapus bucket log, lakukan langkah-langkah berikut:
Konsol Google Cloud
Untuk menghapus bucket log, lakukan langkah-langkah berikut:
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Temukan bucket yang ingin Anda hapus, lalu klik more_vertLainnya.
Jika kolom Set data tertaut di BigQuery menampilkan link, hapus set data BigQuery yang tertaut:
Klik Edit bucket.
Hapus opsi Create a new BigQuery dataset yang tertaut ke bucket ini, klik Done, lalu klik Update bucket.
Setelah kembali ke halaman Logs Storage, klik more_vertMore untuk bucket yang ingin Anda hapus, lalu lanjutkan ke langkah berikutnya.
Pilih Hapus bucket.
Di panel konfirmasi, klik Hapus.
Di halaman Logs Storage, bucket Anda memiliki indikator bahwa bucket sedang menunggu penghapusan. Bucket, termasuk semua log di dalamnya, akan dihapus setelah 7 hari.
gcloud
Untuk menghapus bucket log, jalankan perintah gcloud logging buckets delete
:
gcloud logging buckets delete BUCKET_ID --location=LOCATION
Anda tidak dapat menghapus bucket log jika bucket tersebut memiliki set data BigQuery yang tertaut:
- Untuk menampilkan daftar link yang terkait dengan bucket log, jalankan perintah
gcloud logging links list
. - Untuk menghapus set data yang ditautkan, jalankan
perintah
gcloud logging links delete
.
API
Untuk menghapus bucket, gunakan
projects.locations.buckets.delete
di Logging API.
Akan terjadi error saat menghapus bucket log jika bucket tersebut memiliki set data BigQuery yang tertaut. Anda harus menghapus set data yang ditautkan sebelum menghapus bucket log:
- Untuk menampilkan daftar link yang terkait dengan bucket log, jalankan metode
projects.locations.buckets.links.list
. - Untuk menghapus set data tertaut, jalankan
metode
projects.locations.buckets.links.delete
.
Bucket yang dihapus tetap berada dalam status tertunda ini selama 7 hari, dan Logging akan terus merutekan log ke bucket selama waktu tersebut. Untuk berhenti merutekan log ke bucket yang dihapus, Anda dapat menghapus sink log yang memiliki bucket tersebut sebagai tujuan, atau Anda dapat mengubah filter sink untuk berhenti merutekan log ke bucket yang dihapus.
Anda tidak dapat membuat bucket log baru yang menggunakan nama yang sama dengan bucket yang dihapus yang berada dalam status tertunda.
Memulihkan bucket yang dihapus
Anda dapat memulihkan atau membatalkan penghapusan bucket log yang berada dalam status penghapusan tertunda. Untuk memulihkan bucket log, lakukan langkah berikut:
Konsol Google Cloud
Untuk memulihkan bucket log yang menunggu penghapusan, lakukan langkah berikut:
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Untuk bucket yang ingin Anda pulihkan, klik more_vert Lainnya, lalu pilih Pulihkan bucket yang dihapus.
Di panel konfirmasi, klik Pulihkan.
Di halaman Logs Storage, indikator penghapusan tertunda akan dihapus dari bucket log Anda.
gcloud
Untuk memulihkan bucket log yang menunggu penghapusan, jalankan perintah gcloud logging buckets undelete
:
gcloud logging buckets undelete BUCKET_ID --location=LOCATION
API
Untuk memulihkan bucket yang menunggu penghapusan, gunakan
projects.locations.buckets.undelete
di Logging API.
Pemberitahuan terkait byte log bulanan yang disimpan dalam bucket log
Untuk membuat kebijakan pemberitahuan, di halaman Logs Storage di Konsol Google Cloud, klik add_alert Create usage alert. Tombol ini membuka halaman Buat kebijakan pemberitahuan di Monitoring, dan mengisi kolom jenis metrik dengan logging.googleapis.com/billing/bytes_ingested
.
Untuk membuat kebijakan pemberitahuan yang akan dipicu saat jumlah byte log yang ditulis ke bucket log melampaui batas yang ditentukan pengguna untuk Cloud Logging, gunakan setelan berikut.
Kolom New condition |
Nilai |
---|---|
Resource and Metric | Di menu Resources, pilih Global. Di menu Metric categories, pilih Logs-based metric. Di menu Metrics, pilih Monthly log bytes ingested. |
Filter | Tidak ada. |
Across time series Time series aggregation |
sum |
Rolling window | 60 m |
Rolling window function | max |
Kolom Configure alert trigger |
Nilai |
---|---|
Condition type | Threshold |
Alert trigger | Any time series violates |
Threshold position | Above threshold |
Threshold value | Anda menentukan nilai yang dapat diterima. |
Retest window | Nilai minimum yang dapat diterima adalah 30 menit. |
Untuk mengetahui informasi selengkapnya tentang kebijakan pemberitahuan, lihat Ringkasan pemberitahuan.
Menulis ke bucket
Anda tidak langsung menulis log ke bucket log. Sebaliknya, Anda akan menulis log ke resource Google Cloud: project, folder, atau organisasi Google Cloud. Sink di resource induk kemudian mengarahkan log ke tujuan, termasuk bucket log. Sink merutekan log ke tujuan bucket log saat log cocok dengan filter sink dan sink memiliki izin untuk merutekan log ke bucket log.
Membaca dari bucket
Setiap bucket log memiliki kumpulan tampilan log. Untuk membaca log dari bucket log, Anda memerlukan akses ke tampilan log di bucket log. Tampilan log memungkinkan Anda memberi pengguna akses hanya ke subset log yang disimpan di bucket log. Untuk informasi tentang cara mengonfigurasi tampilan log dan cara memberikan akses ke tampilan log tertentu, lihat Mengonfigurasi tampilan log di bucket log.
Untuk membaca log dari bucket log, lakukan langkah berikut:
Konsol Google Cloud
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Explorer:
Untuk menyesuaikan log yang ditampilkan di Logs Explorer, klik Refine scope, lalu pilih salah satu opsi:
Untuk melihat semua log yang dihasilkan, atau dirutekan langsung ke project saat ini, pilih Scope by current project.
Untuk melihat log tertentu yang disimpan dalam bucket log dalam project saat ini, pilih Scope by storage, lalu pilih satu atau beberapa tampilan log.
Untuk melihat log tertentu yang disimpan dalam bucket log yang berada dalam project berbeda, pilih Scope by storage, klik add_circle Import project di project dan pemilih tampilan log, lalu pilih satu atau beberapa tampilan log.
Klik Apply. Panel Query results dimuat ulang dengan log yang cocok dengan opsi yang Anda pilih.
Untuk mengetahui informasi selengkapnya tentang cara menyesuaikan log yang ditampilkan di Logs Explorer, lihat Ringkasan Logs Explorer: Refine scope.
gcloud
Untuk membaca log dari bucket log, gunakan perintah gcloud logging read
dan tambahkan LOG_FILTER
untuk memilih data:
gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
API
Untuk membaca log dari bucket log, gunakan metode entries.list. Tetapkan resourceNames
untuk menentukan bucket dan tampilan log yang sesuai, dan tetapkan filter
untuk memilih data.
Untuk mengetahui informasi mendetail tentang sintaksis pemfilteran, lihat Bahasa kueri logging.
Mengonfigurasi retensi kustom
Saat membuat bucket log, Anda memiliki opsi untuk menyesuaikan periode berapa lama Cloud Logging menyimpan log bucket.
Anda dapat mengonfigurasi periode retensi untuk setiap bucket log yang ditentukan pengguna dan juga untuk bucket log _Default
.
Jika Anda mempersingkat retensi bucket, ada masa tenggang 7 hari saat log yang habis masa berlakunya tidak dihapus. Anda tidak dapat membuat kueri atau melihat log yang sudah tidak berlaku lagi, tetapi dalam 7 hari tersebut, Anda dapat memulihkan akses penuh dengan memperpanjang retensi bucket. Log yang disimpan selama masa tenggang akan diperhitungkan dalam biaya retensi Anda.
Untuk memperbarui periode retensi data untuk bucket log, lakukan langkah berikut:
Konsol Google Cloud
Untuk memperbarui periode retensi data bucket log, lakukan langkah berikut:
-
Di panel navigasi konsol Google Cloud, pilih Logging, lalu pilih Logs Storage:
Untuk bucket yang ingin Anda perbarui, klik more_vert More, lalu pilih Edit bucket.
Di kolom Retention, masukkan jumlah hari, antara 1 hari hingga 3.650 hari, saat Anda ingin Cloud Logging mempertahankan log Anda.
Klik Update bucket. Durasi retensi baru Anda akan muncul di daftar Bucket log.
gcloud
Untuk memperbarui periode retensi data untuk bucket log, jalankan
perintah gcloud logging buckets update
, setelah menetapkan nilai untuk
RETENTION_DAYS:
gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Misalnya, untuk mempertahankan log dalam bucket _Default
di lokasi global
selama satu tahun, perintah Anda akan terlihat seperti berikut:
gcloud logging buckets update _Default --location=global --retention-days=365
Jika Anda memperpanjang periode retensi bucket, aturan retensi akan berlaku untuk data selanjutnya dan tidak berlaku secara surut. Log tidak dapat dipulihkan setelah periode retensi data yang berlaku berakhir.
Metode API asinkron
Respons metode asinkron seperti
projects.locations.buckets.createAsync
adalah objek Operation
.
Aplikasi yang memanggil metode API asinkron harus melakukan polling
endpoint operation.get
hingga
nilai kolom Operation.done
adalah true
:
Ketika
done
adalahfalse
, operasi sedang berlangsung.Untuk memperbarui informasi status, kirim permintaan
GET
ke endpointoperation.get
.Jika
done
adalahtrue
, berarti operasinya sudah selesai dan kolomerror
atauresponse
ditetapkan:error
: Jika ditetapkan, operasi asinkron akan gagal. Nilai kolom ini adalah objekStatus
yang berisi kode error gRPC dan pesan error.response
: Jika ditetapkan, operasi asinkron berhasil diselesaikan, dan nilai mencerminkan hasilnya.
Untuk melakukan polling perintah asinkron menggunakan Google Cloud CLI, jalankan perintah berikut:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Untuk informasi selengkapnya, lihat gcloud logging operations describe
.
Memecahkan masalah umum
Jika Anda mengalami masalah saat menggunakan bucket log, lihat langkah pemecahan masalah berikut dan jawaban atas pertanyaan umum.
Mengapa saya tidak dapat menghapus bucket ini?
Jika Anda ingin menghapus bucket, lakukan langkah berikut:
Pastikan Anda memiliki izin yang tepat untuk menghapus bucket. Untuk mengetahui daftar izin yang Anda perlukan, lihat Kontrol akses dengan IAM.
Tentukan apakah bucket terkunci dengan mencantumkan atribut bucket. Jika bucket terkunci, periksa periode retensi bucket. Anda tidak dapat menghapus bucket yang terkunci sampai semua log dalam bucket memenuhi periode retensi data bucket.
Pastikan bucket log tidak memiliki set data BigQuery tertaut. Anda tidak dapat menghapus bucket log dengan set data tertaut.
Error berikut ditampilkan sebagai respons terhadap perintah
delete
di bucket log yang memiliki set data tertaut:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Untuk menampilkan daftar link yang terkait dengan bucket log, jalankan perintah
gcloud logging links list
atau jalankan metode APIprojects.locations.buckets.links.list
.
Akun layanan mana yang mengarahkan log ke bucket saya?
Untuk menentukan apakah ada akun layanan yang memiliki izin IAM untuk merutekan log ke bucket Anda, lakukan hal berikut:
-
Pada panel navigasi Konsol Google Cloud, pilih IAM:
Dari tab Izin, lihat menurut Peran. Anda akan melihat tabel yang berisi semua peran dan akun utama IAM yang terkait dengan project Google Cloud Anda.
Dalam kotak teks filter_list Filter tabel, masukkan Logs Bucket Writer.
Anda akan melihat akun utama dengan peran Logs Bucket Writer. Jika akun utama adalah akun layanan, ID-nya akan berisi string
gserviceaccount.com
.Opsional: Jika Anda ingin menghapus akun layanan agar tidak dapat merutekan log ke project Google Cloud, pilih kotak centang check_box_outline_blank untuk akun layanan, lalu klik Remove.
Mengapa saya melihat log untuk project Google Cloud meskipun saya telah mengecualikannya dari sink _Default
saya?
Anda mungkin melihat log di bucket log pada project Google Cloud terpusat, yang menggabungkan log dari seluruh organisasi Anda.
Jika Anda menggunakan Logs Explorer untuk mengakses log ini dan melihat log yang Anda
kecualikan dari sink _Default
, tampilan Anda mungkin memiliki cakupan untuk
level project Google Cloud.
Untuk memperbaiki masalah ini, pilih Scope by storage di panel
Refine scope,
lalu pilih bucket _Default
di
project Google Cloud Anda. Anda tidak akan melihat log yang dikecualikan lagi.
Langkah selanjutnya
Untuk mengetahui informasi tentang metode API bucket log, lihat dokumentasi referensi LogBucket
.
Untuk mengetahui informasi tentang cara mengatasi kasus penggunaan umum dengan bucket log, lihat topik berikut: