Splunk
Konektor Splunk memungkinkan Anda melakukan operasi penyisipan, penghapusan, pembaruan, dan pembacaan di database Splunk.
Sebelum memulai
Sebelum menggunakan konektor Splunk, lakukan tugas berikut:
- Di project Google Cloud Anda:
- Pastikan konektivitas jaringan sudah disiapkan. Untuk mengetahui informasi tentang pola jaringan, lihat Konektivitas jaringan.
- Berikan peran IAM roles/connectors.admin kepada pengguna yang mengonfigurasi konektor.
- Berikan peran IAM berikut ke akun layanan yang ingin Anda gunakan untuk konektor:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Akun layanan adalah jenis Akun Google khusus yang dimaksudkan untuk mewakili pengguna non-manusia yang perlu diautentikasi dan diberi otorisasi untuk mengakses data di Google API. Jika tidak memiliki akun layanan, Anda harus membuat akun layanan. Untuk informasi selengkapnya, lihat Membuat akun layanan.
- Aktifkan layanan berikut:
secretmanager.googleapis.com
(Secret Manager API)connectors.googleapis.com
(Connectors API)
Untuk memahami cara mengaktifkan layanan, lihat Mengaktifkan layanan.
Jika layanan atau izin ini belum diaktifkan untuk project Anda sebelumnya, Anda akan diminta untuk mengaktifkannya saat mengonfigurasi konektor.
Mengonfigurasi konektor
Untuk mengonfigurasi konektor, Anda harus membuat koneksi ke sumber data (sistem backend). Koneksi bersifat khusus untuk sumber data. Artinya, jika memiliki banyak sumber data, Anda harus membuat koneksi terpisah untuk setiap sumber data. Untuk membuat koneksi, lakukan langkah-langkah berikut:
- Di konsol Cloud, buka halaman Konektor Integrasi > Koneksi, lalu pilih atau buat project Google Cloud.
- Klik + CREATE NEW untuk membuka halaman Create Connection.
- Di bagian Location, pilih lokasi untuk koneksi.
- Region: Pilih lokasi dari menu drop-down.
Untuk mengetahui daftar semua region yang didukung, lihat Lokasi.
- Klik NEXT.
- Region: Pilih lokasi dari menu drop-down.
- Di bagian Connection Details, selesaikan tindakan berikut:
- Konektor: Pilih Splunk dari menu drop-down Konektor yang tersedia.
- Versi konektor: Pilih versi Konektor dari menu drop-down versi yang tersedia.
- Di kolom Connection Name, masukkan nama untuk instance Connection.
Nama koneksi harus memenuhi kriteria berikut:
- Nama koneksi dapat menggunakan huruf, angka, atau tanda hubung.
- Huruf harus berupa huruf kecil.
- Nama koneksi harus diawali dengan huruf dan diakhiri dengan huruf atau angka.
- Nama koneksi tidak boleh melebihi 49 karakter.
- Secara opsional, masukkan Description untuk instance koneksi.
- Secara opsional, aktifkan Cloud Logging, lalu pilih level log. Secara default, level log ditetapkan ke
Error
. - Service Account: Pilih akun layanan yang memiliki peran yang diperlukan.
- Secara opsional, konfigurasikan Setelan node koneksi:
- Jumlah node minimum: Masukkan jumlah minimum node koneksi.
- Maximum number of nodes: Masukkan jumlah maksimum node koneksi.
Node adalah unit (atau replika) koneksi yang memproses transaksi. Semakin banyak node yang diperlukan untuk memproses lebih banyak transaksi untuk koneksi, dan sebaliknya, semakin sedikit node yang diperlukan untuk memproses lebih sedikit transaksi. Untuk memahami pengaruh node terhadap harga konektor, lihat Harga untuk node koneksi. Jika Anda tidak memasukkan nilai apa pun, secara default, node minimum ditetapkan ke 2 (untuk ketersediaan yang lebih baik) dan node maksimum ditetapkan ke 50.
- Secara opsional, klik + TAMBAHKAN LABEL untuk menambahkan label ke Koneksi dalam bentuk pasangan kunci/nilai.
- Klik NEXT.
- Di bagian Destinations, masukkan detail host jarak jauh (sistem backend) yang ingin Anda hubungkan.
- Jenis Tujuan: Pilih Jenis Tujuan.
- Pilih Host address dari daftar untuk menentukan nama host atau alamat IP tujuan.
- Jika Anda ingin membuat koneksi pribadi ke sistem backend, pilih Endpoint attachment dari daftar, lalu pilih lampiran endpoint yang diperlukan dari daftar Endpoint Attachment.
Jika ingin membuat koneksi publik ke sistem backend dengan keamanan tambahan, Anda dapat mempertimbangkan untuk mengonfigurasi alamat IP keluar statis untuk koneksi, lalu mengonfigurasi aturan firewall untuk hanya mengizinkan alamat IP statis tertentu.
Untuk memasukkan tujuan tambahan, klik +TAMBAHKAN TUJUAN.
- Klik NEXT.
- Jenis Tujuan: Pilih Jenis Tujuan.
-
Di bagian Authentication, masukkan detail autentikasi.
- Pilih Jenis autentikasi dan masukkan detail yang relevan.
Jenis autentikasi berikut didukung oleh koneksi Splunk:
- Nama pengguna dan sandi (Autentikasi dasar)
- AccessToken
- HTTPEventCollectorToken
- Klik NEXT.
Untuk memahami cara mengonfigurasi jenis autentikasi ini, lihat Mengonfigurasi autentikasi.
- Pilih Jenis autentikasi dan masukkan detail yang relevan.
- Tinjau: Tinjau detail koneksi dan autentikasi Anda.
- Klik Create.
Mengonfigurasi autentikasi
Masukkan detail berdasarkan autentikasi yang ingin Anda gunakan.
-
Nama pengguna dan sandi
- Nama pengguna: Nama pengguna Splunk yang akan digunakan untuk koneksi.
- Sandi: Secret Secret Manager yang berisi sandi yang terkait dengan nama pengguna Splunk.
-
AccessToken - Tetapkan ini untuk melakukan autentikasi berbasis token menggunakan properti
AccessToken
. -
HTTPEventCollectorToken - Tetapkan ini untuk melakukan autentikasi berbasis token menggunakan properti
HTTPEventCollectorToken
.
Contoh konfigurasi koneksi
Bagian ini mencantumkan contoh nilai untuk berbagai kolom yang Anda konfigurasi saat membuat koneksi Splunk.
Jenis koneksi HTTP Event Collector
Nama kolom | Detail |
---|---|
Lokasi | us-central1 |
Konektor | Splunk |
Versi konektor | 1 |
Nama Koneksi | splunk-http-event-coll-conn |
Mengaktifkan Cloud Logging | Tidak |
Akun Layanan | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Jumlah minimum node | 2 |
Jumlah maksimum node | 50 |
Aktifkan SSL | Ya |
Koneksi Tidak Aman Trust Store | Ya |
Jenis Tujuan(Server) | Alamat host |
Alamat host | 192.0.2.0 |
Port | PORT |
Autentikasi berbasis Token HTTP Event Collector | Ya |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Versi rahasia | 1 |
Untuk mengetahui informasi tentang cara membuat token HTTP event collector, lihat Membuat HTTP event collector.
Jenis koneksi SSL
Nama kolom | Detail |
---|---|
Lokasi | us-central1 |
Konektor | Splunk |
Versi konektor | 1 |
Nama Koneksi | splunk-ssl-connection |
Mengaktifkan Cloud Logging | Ya |
Akun Layanan | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Tingkat verbositas | 5 |
Jumlah minimum node | 2 |
Jumlah maksimum node | 50 |
Aktifkan SSL | Ya |
Koneksi Tidak Aman | Ya |
Jenis Tujuan(Server) | Alamat host |
Alamat host | https://192.0.2.0 |
Port | PORT |
Sandi Pengguna | Ya |
Nama Pengguna | PENGGUNA |
Sandi | PASSWORD |
Versi rahasia | 1 |
Untuk autentikasi dasar, Anda harus memiliki peran pengguna atau peran pengguna tingkat lanjut. Untuk mengetahui informasi tentang cara mengonfigurasi pengguna tingkat lanjut, lihat Mengonfigurasi peran pengguna tingkat lanjut. Untuk informasi tentang cara menentukan peran di Splunk, lihat Menentukan Peran di Platform Splunk.
Entity, operasi, dan tindakan
Semua Konektor Integrasi menyediakan lapisan abstraksi untuk objek aplikasi yang terhubung. Anda hanya dapat mengakses objek aplikasi melalui abstraksi ini. Abstraksi ditampilkan kepada Anda sebagai entitas, operasi, dan tindakan.
- Entity: Entity dapat dianggap sebagai objek, atau kumpulan properti, dalam
aplikasi atau layanan yang terhubung. Definisi entitas berbeda dari konektor ke konektor. Misalnya, dalam konektor database, tabel adalah entitas, dalam
konektor server file, folder adalah entitas, dan dalam konektor sistem pesan,
antrean adalah entitas.
Namun, mungkin konektor tidak mendukung atau memiliki entity apa pun, dalam hal ini, daftar
Entities
akan kosong. - Operasi: Operasi adalah aktivitas yang dapat Anda lakukan pada entity. Anda dapat melakukan
salah satu operasi berikut pada entitas:
Memilih entitas dari daftar yang tersedia akan menghasilkan daftar operasi yang tersedia untuk entitas tersebut. Untuk deskripsi mendetail tentang operasi, lihat operasi entity tugas Konektor. Namun, jika konektor tidak mendukung operasi entitas apa pun, operasi yang tidak didukung tersebut tidak akan tercantum dalam daftar
Operations
. - Tindakan: Tindakan adalah fungsi kelas satu yang tersedia untuk integrasi
melalui antarmuka konektor. Tindakan memungkinkan Anda membuat perubahan pada satu atau beberapa entitas, dan
bervariasi dari satu konektor ke konektor lainnya. Biasanya, tindakan akan memiliki beberapa parameter input, dan parameter
output. Namun, konektor mungkin
tidak mendukung tindakan apa pun, dalam hal ini daftar
Actions
akan kosong.
Batasan sistem
Konektor Splunk dapat memproses 5 transaksi per detik, per node, dan mencegah transaksi apa pun di luar batas ini. Namun, jumlah transaksi yang dapat diproses oleh konektor ini juga bergantung pada batasan yang diberlakukan oleh instance Splunk. Secara default, Konektor Integrasi mengalokasikan 2 node (untuk ketersediaan yang lebih baik) untuk koneksi.
Untuk mengetahui informasi tentang batas yang berlaku untuk Konektor Integrasi, lihat Batas.
Tindakan
Bagian ini mencantumkan tindakan yang didukung oleh konektor. Untuk memahami cara mengonfigurasi tindakan, lihat Contoh tindakan.
Tindakan CreateHTTPEvent
Tindakan ini memungkinkan Anda mengirim data dan peristiwa aplikasi ke deployment Splunk melalui protokol HTTP dan HTTPS.
Parameter input tindakan CreateHTTPEvent
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
EventContent | String | Ya | Nama tabel atau tampilan. |
ContentType | String | Tidak | Jenis konten yang ditentukan untuk input EventContent . Nilai yang didukung adalah JSON dan RAWTEXT . |
ChannelGUID | Bilangan bulat | Tidak | GUID saluran yang digunakan untuk peristiwa. Anda harus menentukan nilai ini
jika ContentType adalah RAWTEXT . |
Parameter output tindakan CreateHTTPEvent
Tindakan ini menampilkan status keberhasilan peristiwa yang dibuat.
Tindakan CreateIndex
Tindakan ini memungkinkan Anda membuat indeks.
Parameter input tindakan CreateIndex
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
MaxMetaEntries | String | Tidak | Menetapkan jumlah maksimum baris unik dalam file .data di bucket, yang dapat membantu mengurangi konsumsi memori. |
FrozenTimePeriodInSecs | String | Tidak | Jumlah detik setelah data yang diindeks di-roll ke beku. Default-nya adalah 188697600 (6 tahun). |
HomePath | String | Tidak | Jalur absolut yang berisi bucket panas dan hangat untuk indeks. |
MinRawFileSyncSecs | String | Tidak | Tentukan bilangan bulat (atau disable ) untuk parameter ini. Parameter ini menetapkan
frekuensi splunkd memaksa sinkronisasi sistem file saat mengompresi slice jurnal. |
ProcessTrackerServiceInterval | String | Tidak | Menentukan, dalam hitungan detik, seberapa sering pengindeksan memeriksa status proses OS turunan yang diluncurkan untuk melihat apakah proses tersebut dapat meluncurkan proses baru untuk permintaan yang diantrekan. Jika ditetapkan ke 0, pengindeksan akan memeriksa status proses turunan setiap detik. |
ServiceMetaPeriod | String | Tidak | Menentukan frekuensi (dalam detik) metadata disinkronkan ke disk. |
MaxHotSpanSecs | String | Tidak | Batas atas rentang waktu maksimum target (dalam detik) untuk bucket panas atau hangat. |
QuarantinePastSecs | String | Tidak | Peristiwa dengan stempel waktu quarantinePastSecs yang lebih lama dari >now akan dimasukkan ke bucket karantina. |
ColdToFrozenDir | String | Tidak | Jalur tujuan untuk arsip beku. Gunakan sebagai alternatif untuk ColdToFrozenScript. |
ColdPath | String | Tidak | Jalur absolut yang berisi colddb untuk indeks. Jalur harus dapat dibaca dan ditulis. |
MaxHotIdleSecs | String | Tidak | Masa aktif maksimum, dalam detik, dari bucket panas |
WarmToColdScript | String | Tidak | Jalur ke skrip yang akan dijalankan saat memindahkan data dari warm ke cold. |
ColdToFrozenScript | String | Tidak | Jalur ke skrip pengarsipan. |
MaxHotBuckets | String | Tidak | Bucket panas maksimum yang dapat ada per indeks. |
TstatsHomePath | String | Tidak | Lokasi untuk menyimpan data TSIDX akselerasi model data untuk indeks ini. Jika ditentukan, volume harus ditentukan dalam definisi volume. Jalur harus dapat ditulis |
RepFactor | String | Tidak | Kontrol replikasi indeks. Parameter ini hanya berlaku untuk node peer dalam cluster.
|
MaxDataSize | String | Tidak | Ukuran maksimum dalam MB yang harus dicapai DB panas sebelum roll to warm dipicu.
Menentukan auto atau auto_high_volume akan menyebabkan Splunk
menyesuaikan parameter ini secara otomatis (direkomendasikan). |
MaxBloomBackfillBucketAge | String | Tidak | Nilai yang valid adalah: bilangan bulat[m|s|h|d] jika bucket hangat atau dingin lebih lama dari usia yang ditentukan, jangan buat atau buat ulang bloomfilter-nya. Tentukan 0 untuk tidak pernah mem-build ulang bloomfilter. |
BlockSignSize | String | Tidak | Mengontrol jumlah peristiwa yang membentuk blok untuk tanda tangan blok. Jika disetel ke 0, penandatanganan blok akan dinonaktifkan untuk indeks ini. Nilai yang direkomendasikan adalah 100. |
Nama | String | Ya | Nama indeks yang akan dibuat |
MaxTotalDataSizeMB | String | Tidak | Ukuran maksimum indeks (dalam MB). Jika indeks tumbuh lebih besar dari ukuran maksimum, data terlama akan dibekukan. |
MaxWarmDBCount | String | Tidak | Jumlah maksimum bucket hangat. Jika jumlah ini terlampaui, bucket hangat dengan nilai terendah untuk waktu terbarunya akan dipindahkan ke dingin. |
RawChunkSizeBytes | String | Tidak | Targetkan ukuran yang tidak dikompresi dalam byte untuk setiap slice mentah dalam jurnal rawdata indeks. 0 bukan nilai yang valid. Jika 0 ditentukan, rawChunkSizeBytes akan ditetapkan ke nilai default. |
DataType | String | Tidak | Menentukan jenis indeks |
MaxConcurrentOptimizes | String | Tidak | Jumlah proses pengoptimalan serentak yang dapat berjalan pada bucket panas. |
ThrottleCheckPeriod | String | Tidak | Menentukan seberapa sering (dalam detik) Splunk memeriksa kondisi throttling indeks. |
SyncMeta | String | Tidak | Jika true, operasi sinkronisasi akan dipanggil sebelum deskriptor file ditutup pada update file metadata. Fungsi ini meningkatkan integritas file metadata, terutama terkait error sistem operasi atau kegagalan mesin. |
RotatePeriodInSecs | String | Tidak | Frekuensi (dalam detik) untuk memeriksa apakah bucket hot baru perlu dibuat. Selain itu, seberapa sering memeriksa apakah ada ember hangat/dingin yang harus diputar/dibekukan. |
Parameter output tindakan CreateIndex
Tindakan ini menampilkan pesan konfirmasi tindakan CreateIndex.
Misalnya, cara mengonfigurasi tindakan CreateIndex
,
lihat Contoh tindakan.
Tindakan CreateSavedSearch
Tindakan ini memungkinkan Anda menyimpan penelusuran
Parameter input tindakan CreateSavedSearch
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
IsVisible | Boolean | Ya | Menunjukkan apakah penelusuran tersimpan ini muncul di daftar penelusuran tersimpan yang terlihat. |
RealTimeSchedule | Boolean | Ya | Jika nilai ini ditetapkan ke 1, penjadwal akan mendasarkan penentuan waktu eksekusi penelusuran terjadwal berikutnya pada waktu saat ini. Jika nilai ini ditetapkan ke 0, nilai tersebut ditentukan berdasarkan waktu eksekusi penelusuran terakhir. |
Telusuri | String | Ya | Kueri penelusuran yang akan disimpan |
Deskripsi | String | Tidak | Deskripsi penelusuran tersimpan ini |
SchedulePriority | String | Ya | Menunjukkan prioritas penjadwalan penelusuran tertentu |
CronSchedule | String | Ya | Jadwal cron untuk menjalankan penelusuran ini. Misalnya, */5 * * * *
menyebabkan penelusuran dieksekusi setiap 5 menit. |
Nama | String | Ya | Nama untuk penelusuran |
UserContext | String | Ya | Jika konteks pengguna diberikan, node servicesNS akan digunakan
(/servicesNS/[UserContext]/search), jika tidak, akan ditetapkan secara default ke endpoint umum, /services . |
RunOnStartup | Boolean | Ya | Menunjukkan apakah penelusuran ini berjalan saat memulai. Jika tidak berjalan saat memulai, penelusuran akan berjalan pada waktu terjadwal berikutnya. |
Nonaktif | Boolean | Tidak | Menunjukkan apakah penelusuran tersimpan ini dinonaktifkan. |
IsScheduled | Boolean | Ya | Menunjukkan apakah penelusuran ini akan dijalankan sesuai jadwal. |
Parameter output tindakan CreateSavedSearch
Tindakan ini menampilkan pesan konfirmasi tindakan CreateSavedSearch.
Misalnya, cara mengonfigurasi tindakan CreateSavedSearch
,
lihat Contoh tindakan.
Tindakan UpdateSavedSearch
Tindakan ini memungkinkan Anda memperbarui penelusuran tersimpan.
Parameter input tindakan UpdateSavedSearch
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
IsVisible | Boolean | Ya | Menunjukkan apakah penelusuran tersimpan ini muncul di daftar penelusuran tersimpan yang terlihat. |
RealTimeSchedule | Boolean | Ya | Jika nilai ini ditetapkan ke 1, penjadwal akan mendasarkan penentuan waktu eksekusi penelusuran terjadwal berikutnya pada waktu saat ini. Jika nilai ini ditetapkan ke 0, nilai ini ditentukan berdasarkan waktu eksekusi penelusuran terakhir. |
Telusuri | String | Ya | Kueri penelusuran yang akan disimpan |
Deskripsi | String | Tidak | Deskripsi penelusuran tersimpan ini |
SchedulePriority | String | Ya | Menunjukkan prioritas penjadwalan penelusuran tertentu |
CronSchedule | String | Ya | Jadwal cron untuk menjalankan penelusuran ini. Misalnya, */5 * * * * menyebabkan penelusuran dieksekusi setiap 5 menit. |
Nama | String | Ya | Nama untuk penelusuran |
UserContext | String | Ya | Jika konteks pengguna diberikan, node servicesNS akan digunakan (/servicesNS/[UserContext]/search),
jika tidak, node tersebut akan ditetapkan secara default ke endpoint umum, /services . |
RunOnStartup | Boolean | Ya | Menunjukkan apakah penelusuran ini berjalan saat memulai. Jika tidak berjalan saat memulai, penelusuran akan berjalan pada waktu terjadwal berikutnya. |
Nonaktif | Boolean | Tidak | Menunjukkan apakah penelusuran tersimpan ini dinonaktifkan. |
IsScheduled | Boolean | Ya | Menunjukkan apakah penelusuran ini akan dijalankan sesuai jadwal. |
Parameter output tindakan UpdateSavedSearch
Tindakan ini menampilkan pesan konfirmasi tindakan UpdateSavedSearch.
Misalnya, cara mengonfigurasi tindakan UpdateSavedSearch
,
lihat Contoh tindakan.
Tindakan DeleteIndex
Tindakan ini memungkinkan Anda menghapus indeks.
Parameter input tindakan DeleteIndex
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
Nama | String | Ya | Nama indeks yang akan dihapus. |
Parameter output tindakan DeleteIndex
Tindakan ini menampilkan pesan konfirmasi tindakan DeleteIndex
Misalnya, cara mengonfigurasi tindakan DeleteIndex
,
lihat Contoh tindakan.
Tindakan UpdateIndex
Tindakan ini memungkinkan Anda memperbarui indeks.
Parameter input tindakan UpdateIndex
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
MaxMetaEntries | String | Tidak | Menetapkan jumlah maksimum baris unik dalam file .data di bucket, yang dapat membantu mengurangi konsumsi memori. |
FrozenTimePeriodInSecs | String | Tidak | Jumlah detik setelah data yang diindeks di-roll ke beku. Default-nya adalah 188697600 (6 tahun). |
HomePath | String | Tidak | Jalur absolut yang berisi bucket panas dan hangat untuk indeks. |
MinRawFileSyncSecs | String | Tidak | Tentukan bilangan bulat (atau disable ) untuk parameter ini. Parameter ini menetapkan
seberapa sering splunkd memaksa sinkronisasi sistem file saat mengompresi slice jurnal. |
ProcessTrackerServiceInterval | String | Tidak | Menentukan, dalam hitungan detik, seberapa sering pengindeksan memeriksa status proses OS turunan yang diluncurkan untuk melihat apakah proses tersebut dapat meluncurkan proses baru untuk permintaan yang diantrekan. Jika ditetapkan ke 0, pengindeksan akan memeriksa status proses turunan setiap detik. |
ServiceMetaPeriod | String | Tidak | Menentukan frekuensi (dalam detik) metadata disinkronkan ke disk. |
MaxHotSpanSecs | String | Tidak | Batas atas rentang waktu maksimum target (dalam detik) untuk bucket panas atau hangat. |
QuarantinePastSecs | String | Tidak | Peristiwa dengan stempel waktu quarantinePastSecs yang lebih lama dari now akan dimasukkan ke bucket karantina. |
ColdToFrozenDir | String | Tidak | Jalur tujuan untuk arsip beku. Gunakan sebagai alternatif untuk ColdToFrozenScript. |
ColdPath | String | Tidak | Jalur absolut yang berisi colddb untuk indeks. Jalur harus dapat dibaca dan ditulis. |
MaxHotIdleSecs | String | Tidak | Masa aktif maksimum, dalam detik, dari bucket panas. |
WarmToColdScript | String | Tidak | Jalur ke skrip yang akan dijalankan saat memindahkan data dari warm ke cold. |
ColdToFrozenScript | String | Tidak | Jalur ke skrip pengarsipan. |
MaxHotBuckets | String | Tidak | Bucket panas maksimum yang dapat ada per indeks. |
TstatsHomePath | String | Tidak | Lokasi untuk menyimpan data TSIDX akselerasi model data untuk indeks ini. Jika ditentukan, volume harus ditentukan dalam hal definisi volume. Jalur harus dapat ditulis |
RepFactor | String | Tidak | Kontrol replikasi indeks. Parameter ini hanya berlaku untuk node peer dalam cluster.
|
MaxDataSize | String | Tidak | Ukuran maksimum dalam MB yang harus dicapai DB panas sebelum roll to warm dipicu.
Menentukan auto atau auto_high_volume akan menyebabkan Splunk menyesuaikan parameter ini secara otomatis (direkomendasikan). |
MaxBloomBackfillBucketAge | String | Tidak | Nilai yang valid adalah: bilangan bulat[m|s|h|d] jika bucket hangat atau dingin lebih lama dari usia yang ditentukan, jangan buat atau buat ulang bloomfilter-nya. Tentukan 0 untuk tidak pernah mem-build ulang bloomfilter. |
BlockSignSize | String | Tidak | Mengontrol jumlah peristiwa yang membentuk blok untuk tanda tangan blok. Jika disetel ke 0, penandatanganan blok akan dinonaktifkan untuk indeks ini. Nilai yang direkomendasikan adalah 100. |
Nama | String | Ya | Nama indeks yang akan dibuat |
MaxTotalDataSizeMB | String | Ya | Ukuran maksimum indeks (dalam MB). Jika indeks tumbuh lebih besar dari ukuran maksimum, data terlama akan dibekukan. |
MaxWarmDBCount | String | Tidak | Jumlah maksimum bucket hangat. Jika jumlah ini terlampaui, bucket hangat dengan nilai terendah untuk waktu terbarunya akan dipindahkan ke dingin. |
RawChunkSizeBytes | String | Tidak | Target ukuran yang tidak dikompresi dalam byte untuk setiap slice mentah dalam jurnal rawdata indeks. 0 bukan nilai yang valid. Jika 0 ditentukan, rawChunkSizeBytes akan ditetapkan ke nilai default. |
DataType | String | Tidak | Menentukan jenis indeks |
MaxConcurrentOptimizes | String | Tidak | Jumlah proses pengoptimalan serentak yang dapat berjalan pada bucket panas. |
ThrottleCheckPeriod | String | Tidak | Menentukan seberapa sering (dalam detik) Splunk memeriksa kondisi throttling indeks. |
SyncMeta | String | Tidak | Jika true, operasi sinkronisasi akan dipanggil sebelum deskriptor file ditutup pada update file metadata. Fungsi ini meningkatkan integritas file metadata, terutama terkait error sistem operasi atau kegagalan mesin. |
RotatePeriodInSecs | String | Tidak | Frekuensi (dalam detik) untuk memeriksa apakah bucket hot baru perlu dibuat. Selain itu, seberapa sering memeriksa apakah ada ember hangat atau dingin yang harus digulingkan atau dibekukan. |
Parameter output tindakan UpdateIndex
Tindakan ini menampilkan pesan konfirmasi tindakan UpdateIndex.
Misalnya, cara mengonfigurasi tindakan UpdateIndex
,
lihat Contoh tindakan.
Contoh tindakan
Contoh - Membuat peristiwa HTTP
Contoh ini membuat peristiwa HTTP.
- Pada dialog
Configure connector task
, klikActions
. - Pilih tindakan
CreateHTTPEvent
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Jika tindakan berhasil, parameter respons connectorOutputPayload
tugas CreateHTTPEvent
akan memiliki nilai yang mirip dengan berikut:
[{ "Success": "Success" }]
Contoh - Membuat indeks
Contoh ini membuat indeks.
- Pada dialog
Configure connector task
, klikActions
. - Pilih tindakan
CreateIndex
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "http_testing" }
Jika tindakan berhasil, parameter respons connectorOutputPayload
tugas CreateIndex
akan memiliki nilai yang mirip dengan berikut:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Contoh - Membuat penelusuran tersimpan
Contoh ini membuat penelusuran tersimpan.
- Pada dialog
Configure connector task
, klikActions
. - Pilih tindakan
CreateSavedSearch
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Jika tindakan berhasil, parameter respons connectorOutputPayload
tugas CreateSavedSearch
akan memiliki nilai yang mirip dengan berikut:
[{ "Success": true, "Message": null }]
Contoh - Memperbarui penelusuran tersimpan
Contoh ini memperbarui penelusuran tersimpan.
- Pada dialog
Configure connector task
, klikActions
. - Pilih tindakan
UpdateSavedSearch
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Jika tindakan berhasil, parameter respons connectorOutputPayload
tugas UpdateSavedSearch
akan memiliki nilai yang mirip dengan berikut:
[{ "Success": true, "Message": null }]
Contoh - Menghapus indeks
Contoh ini menghapus indeks.
- Pada dialog
Configure connector task
, klikActions
. - Pilih tindakan
DeleteIndex
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "g_http_testing" }
Jika tindakan berhasil, parameter respons connectorOutputPayload
tugas DeleteIndex
akan memiliki nilai yang mirip dengan berikut:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Contoh - Memperbarui indeks
Contoh ini memperbarui indeks.
- Pada dialog
Configure connector task
, klikActions
. - Pilih tindakan
UpdateIndex
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Jika tindakan berhasil, parameter respons connectorOutputPayload
tugas UpdateIndex
akan memiliki nilai yang mirip dengan berikut:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Contoh operasi entity
Bagian ini menunjukkan cara melakukan beberapa operasi entity di konektor ini.
Contoh - Mencantumkan semua data
Contoh ini mencantumkan semua data dalam entitas SearchJobs
.
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
List
, lalu klik Selesai. - Secara opsional, di bagian Input Tugas pada tugas Konektor, Anda dapat memfilter set hasil dengan menentukan klausa filter. Tentukan nilai klausa filter selalu dalam tanda kutip tunggal (').
Contoh - Mendapatkan data dari entity
Contoh ini mendapatkan data dengan ID yang ditentukan dari entitas SearchJobs
.
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Get
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik EntityId, lalu masukkan
1698309163.1300
di kolom Default Value.Di sini,
1698309163.1300
adalah ID data unik dalam entitasSearchJobs
.
Contoh - Membuat kumpulan data dalam entity
Contoh ini membuat data di entitas SearchJobs
.
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Done. - Di bagian Data Mapper pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1699336785.1919" }
Contoh - Membuat kumpulan data dalam entity
Contoh ini membuat data di entitas DataModels
.
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
DataModels
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Done. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Jika integrasi berhasil, kolom
connectorOutputPayload
tugas konektor Anda akan memiliki nilai yang mirip dengan berikut ini:[{ "Id": "Test1" }]
Contoh - Menghapus data dari entity
Contoh ini menghapus data dengan ID yang ditentukan dalam entitas DataModels
.
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
DataModels
dari daftarEntity
. - Pilih operasi
Delete
, lalu klik Done. - Di bagian Task Input pada tugas Connectors, klik entityId, lalu masukkan
Test1
di kolom Default Value.
Contoh - Memperbarui data dalam entity
Contoh ini memperbarui data di entity DataModels
.
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
DataModels
dari daftarEntity
. - Pilih operasi
Update
, lalu klik Done. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Klik entityId, lalu masukkan
/servicesNS/nobody/search/datamodel/model/Testing
di kolom Default Value.Jika integrasi berhasil, kolom
connectorOutputPayload
tugas konektor Anda akan memiliki nilai yang mirip dengan berikut ini:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Contoh - Alur Penelusuran
Bagian ini mencantumkan semua alur penelusuran menggunakan satu indeks dan beberapa indeks.
Membuat penelusuran menggunakan satu Indeks
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Done. - Di bagian Data Mapper pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1726051471.76" }
Operasi daftar menggunakan Nama Indeks yang digunakan dalam Kueri Penelusuran
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
Index Name
dari daftarEntity
. - Pilih operasi
List
, lalu klik Selesai. - Task Input di bagian tugas Connectors, Anda dapat menetapkan filterClause, seperti Sid= '1726051471.76'.
Jika integrasi berhasil, parameter respons connectorOutputPayload
tugas Index Name
akan memiliki nilai yang mirip dengan berikut:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Membuat penelusuran menggunakan beberapa Indeks
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Done. - Di bagian Data Mapper pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1727261971.4007" }
Operasi daftar menggunakan Nama Indeks yang digunakan dalam Kueri Penelusuran
- Pada dialog
Configure connector task
, klikEntities
. - Pilih
Index Name
Nama dari daftarEntity
. - Pilih operasi
List
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, Anda dapat menetapkan filterClause, seperti Sid= '1727261971.4007'.
Jika integrasi berhasil, parameter respons connectorOutputPayload
tugas Index
akan memiliki nilai yang mirip dengan berikut:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Menggunakan terraform untuk membuat koneksi
Anda dapat menggunakan resource Terraform untuk membuat koneksi baru.Untuk mempelajari cara menerapkan atau menghapus konfigurasi Terraform, lihat Perintah dasar Terraform.
Untuk melihat contoh template terraform untuk pembuatan koneksi, lihat contoh template.
Saat membuat koneksi ini menggunakan Terraform, Anda harus menetapkan variabel berikut dalam file konfigurasi Terraform:
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
panjang | STRING | Salah | Tingkat kejelasan untuk koneksi, bervariasi dari 1-5. Tingkat panjang informasi yang lebih tinggi akan mencatat semua detail komunikasi (permintaan, respons, & sertifikat SSL). |
proxy_enabled | BOOLEAN | Salah | Centang kotak ini untuk mengonfigurasi server proxy untuk koneksi. |
proxy_auth_scheme | ENUM | Salah | Jenis autentikasi yang akan digunakan untuk mengautentikasi ke proxy ProxyServer. Nilai yang didukung adalah: BASIC, DIGEST, NONE |
proxy_user | STRING | Salah | Nama pengguna yang akan digunakan untuk mengautentikasi ke proxy ProxyServer. |
proxy_password | SECRET | Salah | Sandi yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer. |
proxy_ssltype | ENUM | Salah | Jenis SSL yang akan digunakan saat terhubung ke proxy ProxyServer. Nilai yang didukung adalah: AUTO, ALWAYS, NEVER, TUNNEL |
Menggunakan koneksi Splunk dalam integrasi
Setelah Anda membuat koneksi, koneksi tersebut akan tersedia di Integration Apigee dan Integration Aplikasi. Anda dapat menggunakan koneksi dalam integrasi melalui tugas Konektor.
- Untuk memahami cara membuat dan menggunakan tugas Konektor di Apigee Integration, lihat Tugas konektor.
- Untuk memahami cara membuat dan menggunakan tugas Konektor di Integrasi Aplikasi, lihat Tugas konektor.
Mendapatkan bantuan dari komunitas Google Cloud
Anda dapat memposting pertanyaan dan mendiskusikan konektor ini di komunitas Google Cloud di Cloud Forums.Langkah selanjutnya
- Pahami cara menangguhkan dan melanjutkan koneksi.
- Pahami cara memantau penggunaan konektor.
- Pahami cara melihat log konektor.