Dokumen ini membahas cara mendownload dan meninjau log penggunaan dan informasi penyimpanan untuk bucket Cloud Storage Anda, serta menganalisis log menggunakan Google BigQuery.
Pengantar
Cloud Storage menawarkan log penggunaan dan log penyimpanan dalam format file CSV yang dapat Anda download dan lihat. Log penggunaan memberikan informasi untuk semua permintaan yang dibuat pada bucket tertentu dan dibuat setiap jam. Log penyimpanan memberikan informasi tentang konsumsi penyimpanan bucket tersebut untuk hari terakhir dan dibuat setiap hari.
Setelah disiapkan, log penggunaan dan log penyimpanan akan otomatis dibuat sebagai objek baru di bucket yang Anda tentukan. Log penggunaan dan log penyimpanan tunduk kepada harga yang sama dengan objek lain yang disimpan di Cloud Storage.
Haruskah Anda menggunakan log penggunaan atau Cloud Audit Logs?
Dalam sebagian besar kasus, Cloud Audit Logs adalah metode yang direkomendasikan untuk membuat log yang melacak operasi API yang dilakukan di Cloud Storage:
- Cloud Audit Logs melacak akses secara berkelanjutan, dengan pengiriman peristiwa dalam hitungan detik setelah kemunculannya.
- Cloud Audit Logs menghasilkan log yang lebih mudah digunakan.
- Cloud Audit Logs dapat memantau banyak layanan Google Cloud Anda, bukan hanya Cloud Storage.
- Cloud Audit Logs dapat, secara opsional, mencatat informasi permintaan dan respons yang mendetail.
Dalam beberapa kasus, Anda mungkin ingin menggunakan log penggunaan, baik sebagai pengganti ataupun sebagai tambahan dari Cloud Audit Logs. Anda kemungkinan besar ingin menggunakan log penggunaan jika:
- Anda ingin melacak akses yang terjadi karena resource memiliki
allUsers
atauallAuthenticatedUsers
di setelan kontrol aksesnya, seperti akses ke aset di bucket yang telah Anda konfigurasi menjadi situs statis. - Anda ingin melacak perubahan yang dibuat oleh fitur Object Lifecycle Management atau Autoclass.
- Anda ingin menggunakan download browser yang diautentikasi untuk mengakses objek di bucket.
- Anda ingin agar log menyertakan informasi latensi, ukuran permintaan, dan respons setiap permintaan HTTP, atau jalur URL lengkap dan setiap parameter kueri.
- Anda ingin melacak akses hanya ke bucket tertentu dalam project, sehingga tidak ingin mengaktifkan Log audit Akses Data, yang melacak akses ke semua bucket di project Anda.
Perlu diperhatikan bahwa log penggunaan hanya dibuat setiap jam dan dapat tertunda, terutama saat melaporkan bucket yang mengalami rasio permintaan tinggi.
Haruskah Anda menggunakan log penyimpanan atau Monitoring?
Umumnya, Anda tidak boleh menggunakan log penyimpanan. Alat yang direkomendasikan untuk mengukur konsumsi penyimpanan adalah Monitoring, yang menyediakan alat visualisasi serta metrik tambahan terkait konsumsi penyimpanan yang tidak disediakan oleh log penyimpanan. Lihat tab Konsol untuk menentukan ukuran bucket guna mengetahui petunjuk langkah demi langkah tentang cara menggunakan Monitoring.
Menyiapkan pengiriman log
Saat Anda menyiapkan pengiriman log, log penggunaan dan log penyimpanan akan dibuat untuk bucket yang ditentukan. Langkah-langkah berikut menjelaskan cara menyiapkan pengiriman log untuk bucket:
Command line
gcloud
Buat bucket untuk menyimpan log Anda menggunakan perintah berikut:
gcloud storage buckets create gs://example-logs-bucket
Beri Cloud Storage peran
roles/storage.objectCreator
untuk bucket tersebut:gcloud storage buckets add-iam-policy-binding gs://example-logs-bucket --member=group:cloud-storage-analytics@google.com --role=roles/storage.objectCreator
Peran ini memberi Cloud Storage, dalam bentuk grup
cloud-storage-analytics@google.com
, izin untuk membuat dan menyimpan log Anda sebagai objek baru.Objek log memiliki acl objek default pada bucket log, kecuali jika akses level bucket seragam diaktifkan di bucket.
Aktifkan logging untuk bucket Anda menggunakan flag
--log-bucket
:gcloud storage buckets update gs://example-bucket --log-bucket=gs://example-logs-bucket [--log-object-prefix=log_object_prefix]
Secara opsional, Anda dapat menetapkan awalan objek untuk objek log menggunakan flag
--log-object-prefix
. Awalan objek akan membentuk awal nama objek log. Nama ini dapat berisi maksimal 900 karakter dan harus berupa nama objek yang valid. Secara default, awalan objek adalah nama bucket tempat log diaktifkan.
gsutil
Buat bucket untuk menyimpan log Anda menggunakan perintah berikut:
gsutil mb gs://example-logs-bucket
Beri Cloud Storage peran
roles/storage.objectCreator
untuk bucket tersebut:gsutil iam ch group:cloud-storage-analytics@google.com:objectCreator gs://example-logs-bucket
Peran ini memberi Cloud Storage, dalam bentuk grup
cloud-storage-analytics@google.com
, izin untuk membuat dan menyimpan log Anda sebagai objek baru.Objek log memiliki acl objek default pada bucket log, kecuali jika akses level bucket seragam diaktifkan di bucket.
Aktifkan logging untuk bucket Anda menggunakan perintah
logging
:gsutil logging set on -b gs://example-logs-bucket [-o log_object_prefix ] gs://example-bucket
Secara opsional, Anda dapat menetapkan awalan objek untuk objek log menggunakan
log_object_prefix
. Awalan objek membentuk awal nama objek log. Nama ini dapat berisi maksimal 900 karakter dan harus berupa nama objek yang valid. Secara default, awalan objek adalah nama bucket tempat log diaktifkan.
REST API
JSON API
Buat bucket untuk menyimpan log Anda menggunakan permintaan berikut:
POST /storage/v1/b?project=project-id Host: storage.googleapis.com { "name": "example-logs-bucket" }
Beri Cloud Storage peran
roles/storage.objectCreator
untuk bucket. Jika ada binding IAM level bucket tambahan untuk bucket, pastikan untuk menyertakannya dalam permintaan.POST /storage/v1/b/example-logs-bucket/iam Host: storage.googleapis.com { "bindings":[ { "role": "roles/storage.objectCreator", "members":[ "group-cloud-storage-analytics@google.com" ] } ] }
Peran ini memberi Cloud Storage, dalam bentuk grup
cloud-storage-analytics@google.com
, izin untuk membuat dan menyimpan log Anda sebagai objek baru.Objek log memiliki acl objek default pada bucket log, kecuali jika akses level bucket seragam diaktifkan di bucket.
Aktifkan logging untuk bucket Anda menggunakan permintaan berikut:
PATCH /storage/v1/b/example-bucket Host: storage.googleapis.com { "logging": { "logBucket": "example-logs-bucket", "logObjectPrefix": "log_object_prefix" } }
XML API
Buat bucket untuk menyimpan log Anda menggunakan permintaan berikut:
PUT /example-logs-bucket HTTP/1.1 Host: storage.googleapis.com
Tetapkan izin untuk memberikan izin
WRITE
Cloud Storage ke bucket guna membuat dan menyimpan log Anda sebagai objek baru. Anda harus menambahkan entri ACL untuk bucket yang memberikan akses tulis ke grupcloud-storage-analytics@google.com
. Pastikan bahwa Anda telah menyertakan semua ACL yang ada untuk bucket, selain ACL baru, dalam permintaan.PUT /example-logs-bucket?acl HTTP/1.1 Host: storage.googleapis.com <AccessControlList> <Entries> <Entry> <Scope type="GroupByEmail"> <EmailAddress>cloud-storage-analytics@google.com</EmailAddress> </Scope> <Permission>WRITE</Permission> </Entry> <!-- include other existing ACL entries here--> </Entries> </AccessControlList>
Aktifkan logging untuk bucket Anda menggunakan parameter kueri logging:
PUT /example-bucket?logging HTTP/1.1 Host: storage.googleapis.com <Logging> <LogBucket>example-logs-bucket</LogBucket> <LogObjectPrefix>log_object_prefix</LogObjectPrefix> </Logging>
Memeriksa status logging
Command line
gcloud
Periksa logging menggunakan perintah buckets describe
dengan flag --format
:
gcloud storage buckets describe gs://example-bucket --format="default(logging_config)"
Anda juga dapat menyimpan konfigurasi logging ke file:
gcloud storage buckets describe gs://example-bucket > your_logging_configuration_file --format="default(logging_config)"
Jika logging diaktifkan, server akan menampilkan konfigurasi logging dalam respons:
logging: logBucket: example-logs-bucket logObjectPrefix: log_object_prefix
Jika logging tidak diaktifkan, nilai berikut akan ditampilkan:
null
gsutil
Periksa logging menggunakan perintah logging get
:
gsutil logging get gs://example-bucket
Anda juga dapat menyimpan konfigurasi logging ke file:
gsutil logging get gs://example-bucket > your_logging_configuration_file
Jika logging diaktifkan, server akan menampilkan konfigurasi logging dalam respons:
{"logBucket": "example-logs-bucket", "logObjectPrefix": "log_object_prefix"}
Jika logging tidak diaktifkan, nilai berikut akan ditampilkan:
gs://example-bucket/ has no logging configuration.
REST API
JSON API
Kirim permintaan GET untuk konfigurasi logging bucket, seperti yang ditunjukkan pada contoh berikut ini:
GET /storage/v1/b/example-bucket?fields=logging Host: storage.googleapis.com
Jika logging diaktifkan, server akan mengirimkan konfigurasi dalam respons. Responsnya mungkin terlihat mirip dengan berikut ini:
{ "logging": { "logBucket": "example-logs-bucket", "logObjectPrefix": "log_object_prefix" } }
Jika logging tidak diaktifkan, konfigurasi kosong akan ditampilkan:
{}
XML API
Kirim permintaan GET Bucket untuk konfigurasi logging bucket seperti yang ditunjukkan pada contoh berikut ini:
GET /example-bucket?logging HTTP/1.1 Host: storage.googleapis.com
Jika logging diaktifkan, server akan mengirimkan konfigurasi dalam respons. Responsnya mungkin terlihat mirip dengan berikut ini:
<?xml version="1.0" ?> <Logging> <LogBucket> example-logs-bucket </LogBucket> <LogObjectPrefix> log_object_prefix </LogObjectPrefix> </Logging>
Jika logging tidak diaktifkan, konfigurasi kosong akan ditampilkan:
<?xml version="1.0" ?> <Logging/>
Download log
Log penyimpanan dihasilkan sekali sehari dan berisi jumlah penyimpanan yang digunakan untuk hari sebelumnya. Pesan tersebut biasanya dibuat sebelum pukul 10.00 PST.
Log penggunaan dibuat setiap jam jika ada aktivitas yang akan dilaporkan di bucket yang dipantau. Log penggunaan biasanya dibuat 15 menit setelah akhir jam.
Cara termudah untuk mendownload log penggunaan dan log penyimpanan dari bucket tempat log tersebut disimpan adalah melaluiKonsol Google Cloud atau
gcloud storage
CLI. Log penggunaan Anda tersedia dalam format CSV dan memiliki konvensi penamaan berikut:
OBJECT_PREFIX_usage_TIMESTAMP_ID_v0
Demikian pula, log penyimpanan diberi nama menggunakan konvensi berikut:
OBJECT_PREFIX_storage_TIMESTAMP_ID_v0
Misalnya, berikut adalah nama objek log penggunaan yang menggunakan awalan objek default, yang melaporkan penggunaan untuk bucket bernama example-bucket
, dan dibuat pada 18 Juni 2022 pukul 14.00 UTC .
example-bucket_usage_2022_06_18_14_00_00_1702e6_v0
Demikian pula, berikut adalah nama objek log penyimpanan yang menggunakan awalan objek default dan dibuat pada 18 Juni 2022 untuk bucket yang sama:
example-bucket_storage_2022_06_18_07_00_00_1702e6_v0
Untuk mendownload log:
Konsol
- Di Konsol Google Cloud, buka halaman Bucket Cloud Storage.
Pilih bucket tempat log Anda disimpan.
Download atau lihat log Anda dengan mengklik objek log yang sesuai.
Command line
gcloud
Jalankan perintah berikut:
gcloud storage cp gs://BUCKET_NAME/LOGS_OBJECT DESTINATION
Dengan keterangan:
BUCKET_NAME
adalah nama bucket tempat log disimpan. Misalnya,example-logs-bucket
.LOGS_OBJECT
adalah nama log penggunaan atau log penyimpanan yang Anda download. Misalnya,example-bucket_usage_2022_06_18_14_00_00_1702e6_v0
.DESTINATION
adalah lokasi tempat log yang didownload akan disimpan. Misalnya,Desktop/Logs
.
gsutil
Jalankan perintah berikut:
gsutil cp gs://BUCKET_NAME/LOGS_OBJECT DESTINATION
Dengan keterangan:
BUCKET_NAME
adalah nama bucket tempat log disimpan. Misalnya,example-logs-bucket
.LOGS_OBJECT
adalah nama log penggunaan atau log penyimpanan yang Anda download. Misalnya,example-bucket_usage_2022_06_18_14_00_00_1702e6_v0
.DESTINATION
adalah lokasi tempat log yang didownload akan disimpan. Misalnya,Desktop/Logs
.
Menganalisis log di BigQuery
Untuk mengkueri penggunaan Cloud Storage dan log penyimpanan, Anda dapat menggunakan Google BigQuery, yang memungkinkan Anda untuk membuat kueri cepat yang menyerupai SQL pada tabel yang hanya dapat menambahkan data. Alat Command Line BigQuery, bq
, adalah alat berbasis Python yang dapat Anda gunakan untuk mengakses BigQuery dari command line. Untuk informasi tentang mendownload dan menggunakan bq, lihat halaman referensi Alat Command Line bq.
Memuat log ke BigQuery
Pilih project default.
Untuk mengetahui detail tentang memilih project, lihat Bekerja dengan Project.
Buat kumpulan data baru.
$ bq mk storageanalysis Dataset 'storageanalysis' successfully created.
Buat daftar set data dalam project:
$ bq ls datasetId
-----------------
storageanalysisSimpan skema penggunaan dan penyimpanan ke komputer lokal Anda untuk digunakan dalam perintah pemuatan.
Anda dapat menemukan skema untuk digunakan di lokasi berikut: cloud_storage_usage_schema_v0 dan cloud_storage_storage_schema_v0. Skema ini juga dijelaskan di bagian Format Log Penggunaan dan Penyimpanan.
Muat log penggunaan ke dalam set data.
$ bq load --skip_leading_rows=1 storageanalysis.usage \ gs://example-logs-bucket/example-bucket_usage_2014_01_15_14_00_00_1702e6_v0 \ ./cloud_storage_usage_schema_v0.json $ bq load --skip_leading_rows=1 storageanalysis.storage \ gs://example-logs-bucket/example-bucket_storage_2014_01_05_14_00_00_091c5f_v0 \ ./cloud_storage_storage_schema_v0.json
Perintah ini melakukan hal berikut:
- Memuat log penggunaan dan penyimpanan dari bucket
example-logs-bucket
. - Membuat tabel
usage
danstorage
dalam set datastorageanalysis
. - Membaca data skema (file .json) dari direktori yang sama tempat perintah bq berjalan.
- Melewati baris pertama setiap file log karena baris tersebut berisi deskripsi kolom.
Karena ini adalah pertama kalinya Anda menjalankan perintah pemuatan dalam contoh di sini, tabel
usage
danstorage
telah dibuat. Anda dapat terus menambahkan ke tabel ini menggunakan perintah pemuatan berikutnya dengan nama file log penggunaan yang berbeda atau menggunakan karakter pengganti. Misalnya, perintah berikut menambahkan data dari semua log yang dimulai dengan "bucket_usuage_2014", ke tabelstorage
:$ bq load --skip_leading_rows=1 storageanalysis.usage \ gs://example-logs-bucket/bucket_usage_2014* \ ./cloud_storage_usage_schema.json
Saat menggunakan karakter pengganti, Anda dapat memindahkan log yang telah diupload ke BigQuery ke direktori lain (misalnya,
gs://example-logs-bucket/processed
) untuk menghindari upload data dari log lebih dari sekali.- Memuat log penggunaan dan penyimpanan dari bucket
Fungsi BigQuery juga dapat diakses melalui BigQuery Browser Tool. Dengan alat browser, Anda dapat memuat data melalui proses pembuatan tabel.
Untuk informasi tambahan tentang memuat data dari Cloud Storage, termasuk memuat data secara terprogram, baca Memuat data dari Cloud Storage.
Mengubah skema log penggunaan
Dalam beberapa skenario, ada baiknya Anda melakukan pra-pemrosesan pada log penggunaan sebelum memuatnya ke BigQuery. Misalnya, Anda dapat menambahkan informasi lain ke log penggunaan untuk mempermudah analisis kueri di BigQuery. Di bagian ini, kami akan menunjukkan cara menambahkan nama file untuk setiap log penggunaan penyimpanan ke log. Tindakan ini memerlukan modifikasi pada skema dan setiap file log yang sudah ada.
Ubah skema yang ada, cloud_storage_storage_schema_v0, untuk menambahkan nama file seperti yang ditunjukkan di bawah ini. Beri nama baru pada skema baru, misalnya, cloud_storage_storage_schema_custom.json, untuk membedakannya dengan skema aslinya.
[ {"name": "bucket", "type": "string", "mode": "REQUIRED"}, {"name": "storage_byte_hours","type": "integer","mode": "REQUIRED"}, {"name": "filename","type": "string","mode": "REQUIRED"} ]
Lakukan pra-pemrosesan pada file log penggunaan penyimpanan berdasarkan skema baru, sebelum memuatnya ke BigQuery.
Misalnya, perintah berikut dapat digunakan di lingkungan Linux, macOS, atau Windows (Cygwin):
gcloud storage cp gs://example-logs-bucket/example-bucket_storage\* . for f in example-bucket_storage\*; do sed -i -e "1s/$/,\"filename\"/" -e "2s/$/,\""$f"\"/" $f; done
Perintah
gcloud storage
akan menyalin file ke direktori kerja Anda. Perintah kedua melakukan loop pada file log dan menambahkan "filename" ke baris deskripsi (baris pertama) dan nama file yang sebenarnya ke baris data (baris kedua). Berikut adalah contoh file log yang diubah:"bucket","storage_byte_hours","filename" "example-bucket","5532482018","example-bucket_storage_2014_01_05_08_00_00_021fd_v0"
Saat Anda memuat log penggunaan penyimpanan ke BigQuery, muat log yang diubah secara lokal dan gunakan skema yang disesuaikan.
for f in example-bucket_storage\*; \ do ./bq.py load --skip_leading_rows=1 storageanalysis.storage $f ./cloud_storage_storage_schema_custom.json; done
Mengkueri log di BigQuery
Setelah log dimuat ke BigQuery, Anda dapat mengkueri log penggunaan untuk menampilkan informasi tentang bucket yang dicatat ke dalam log. Contoh berikut menunjukkan cara menggunakan alat bq dalam skenario ketika Anda memiliki log penggunaan untuk bucket selama beberapa hari dan Anda telah memuat log seperti yang ditunjukkan di bagian Memuat log penggunaan ke dalam BigQuery. Anda juga dapat menjalankan kueri di bawah ini menggunakan BigQuery Browser Tool.
Di alat bq, masuk ke mode interaktif.
$ bq shell
Jalankan kueri pada tabel log penyimpanan.
Misalnya, kueri berikut menunjukkan perubahan dari waktu ke waktu pada penyimpanan bucket yang dicatat ke dalam log. Kueri tersebut mengasumsikan bahwa Anda mengubah log penggunaan penyimpanan seperti yang dijelaskan dalam Mengubah skema log penggunaan dan bahwa file log diberi nama "logstorage*".
project-name>SELECT SUBSTRING(filename, 13, 10) as day, storage_byte_hours/24 as size FROM [storageanalysis.storage] ORDER BY filename LIMIT 100
Contoh output dari kueri tersebut:
Waiting on bqjob_r36fbf5c164a966e8_0000014379bc199c_1 ... (0s) Current status: DONE +------------+----------------------+ | day | size | +------------+----------------------+ | 2014_01_05 | 2.3052008408333334E8 | | 2014_01_06 | 2.3012297245833334E8 | | 2014_01_07 | 3.3477797120833334E8 | | 2014_01_08 | 4.4183686058333334E8 | +-----------------------------------+
Jika skema tidak diubah dan Anda menggunakan skema default, Anda dapat menjalankan kueri berikut:
project-name>SELECT storage_byte_hours FROM [storageanalysis.storage] LIMIT 100
Jalankan kueri pada tabel log penggunaan.
Misalnya, kueri berikut menunjukkan cara meringkas metode permintaan yang digunakan klien untuk mengakses resource di bucket yang dicatat ke dalam log.
project-name>SELECT cs_method, COUNT(*) AS count FROM [storageanalysis.usage] GROUP BY cs_method
Contoh output dari kueri tersebut:
Waiting on bqjob_r1a6b4596bd9c29fb_000001437d6f8a52_1 ... (0s) Current status: DONE +-----------+-------+ | cs_method | count | +-----------+-------+ | PUT | 8002 | | GET | 12631 | | POST | 2737 | | HEAD | 2173 | | DELETE | 7290 | +-----------+-------+
Keluar dari shell interaktif alat bq.
project-name> quit
Menonaktifkan logging
Command line
gcloud
Nonaktifkan logging dengan flag --clear-log-bucket
dalam perintah buckets update
:
gcloud storage buckets update gs://example-bucket --clear-log-bucket
Untuk memeriksa apakah logging berhasil dinonaktifkan, gunakan
perintah buckets describe
:
gcloud storage buckets describe gs://example-bucket --format="default(logging_config)"
Jika logging dinonaktifkan, nilai berikut akan ditampilkan:
null
gsutil
Nonaktifkan logging dengan perintah logging
:
gsutil logging set off gs://example-bucket
Untuk memeriksa apakah logging berhasil dinonaktifkan, lakukan permintaan
logging get
:
gsutil logging get gs://example-bucket
Jika logging dinonaktifkan, nilai berikut akan ditampilkan:
gs://example-bucket/ has no logging configuration.
REST API
JSON API
Nonaktifkan logging dengan mengirimkan permintaan PATCH ke konfigurasi logging bucket, seperti yang ditunjukkan pada contoh berikut ini.
PATCH /example-bucket?logging HTTP/1.1 Host: storage.googleapis.com { "logging": null }
XML API
Nonaktifkan logging dengan mengirimkan permintaan PUT ke konfigurasi logging bucket seperti yang ditunjukkan pada contoh berikut ini:
PUT /example-bucket?logging HTTP/1.1 Host: storage.googleapis.com <Logging/>
Format log penggunaan dan penyimpanan
Log penggunaan dan log penyimpanan dapat memberikan informasi dalam jumlah yang sangat banyak. Anda dapat menggunakan tabel berikut untuk membantu mengidentifikasi semua informasi yang diberikan dalam log ini.
Kolom log penggunaan:
Kolom | Jenis | Deskripsi |
---|---|---|
time_micros |
bilangan bulat | Waktu permintaan selesai, dalam mikrodetik sejak epoch Unix. |
c_ip |
string | Alamat IP tempat permintaan dibuat. Awalan "c" menunjukkan bahwa ini adalah informasi tentang klien. |
c_ip_type |
bilangan bulat | Jenis IP di kolom c_ip:
|
c_ip_region |
string | Dipesan untuk penggunaan di masa mendatang. |
cs_method |
string | Metode HTTP permintaan ini. Awalan "cs" menunjukkan bahwa informasi ini dikirim dari klien ke server. |
cs_uri |
string | URI permintaan. |
sc_status |
bilangan bulat | Kode status HTTP yang dikirim server sebagai respons. Awalan "sc" menunjukkan bahwa informasi ini dikirim dari server ke klien. |
cs_bytes |
bilangan bulat | Jumlah byte yang dikirim dalam permintaan. |
sc_bytes |
bilangan bulat | Jumlah byte yang dikirim dalam respons. |
time_taken_micros |
bilangan bulat | Waktu yang diperlukan untuk merespons permintaan dalam mikrodetik, diukur dari saat byte pertama diterima hingga saat respons dikirim. Perhatikan bahwa untuk upload yang dapat dilanjutkan, titik akhir dari proses ini ditentukan oleh respons terhadap permintaan upload akhir yang merupakan bagian dari upload yang dapat dilanjutkan. |
cs_host |
string | Host dalam permintaan asli. |
cs_referer |
string | Perujuk HTTP untuk permintaan. |
cs_user_agent |
string | Agen Pengguna permintaan. Nilainya adalah GCS Lifecycle Management untuk permintaan yang dibuat oleh pengelolaan siklus proses. |
s_request_id |
string | ID permintaan. |
cs_operation |
string | Operasi Cloud Storage, misalnya GET_Object . Nilainya boleh null. |
cs_bucket |
string | Bucket yang ditentukan dalam permintaan. |
cs_object |
string | Objek yang ditentukan dalam permintaan ini. Nilainya boleh null. |
Kolom log penyimpanan:
Kolom | Jenis | Deskripsi |
---|---|---|
bucket |
string | Nama bucket. |
storage_byte_hours |
bilangan bulat | Ukuran rata-rata dalam byte-jam selama periode 24 jam pada bucket. Untuk mendapatkan ukuran total bucket, bagi byte-jam dengan 24. |