Splunk
Il connettore Splunk ti consente di eseguire operazioni di inserimento, eliminazione, aggiornamento e lettura sul database Splunk.
Prima di iniziare
Prima di utilizzare il connettore Splunk, svolgi le seguenti attività:
- Nel tuo progetto Google Cloud:
- Assicurati che la connettività di rete sia configurata. Per informazioni sui pattern di rete, consulta Connettività di rete.
- Concedi il ruolo IAM roles/connectors.admin all'utente che configura il connettore.
- Concedi i seguenti ruoli IAM all'account di servizio che vuoi utilizzare per il connettore:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Un account di servizio è un tipo speciale di Account Google destinato a rappresentare un utente "non umano" che deve eseguire l'autenticazione ed essere autorizzato ad accedere ai dati nelle API Google. Se non hai un account di servizio, devi crearne uno. Per maggiori informazioni, consulta Creare un account di servizio.
- Attiva i seguenti servizi:
secretmanager.googleapis.com
(API Secret Manager)connectors.googleapis.com
(API Connectors)
Per scoprire come attivare i servizi, consulta Abilitazione dei servizi.
Se questi servizi o autorizzazioni non sono stati attivati in precedenza per il tuo progetto, ti verrà chiesto di attivarli durante la configurazione del connettore.
Configura il connettore
Per configurare il connettore devi creare una connessione all'origine dati (sistema di backend). Una connessione è specifica per un'origine dati. Ciò significa che se hai molte origini dati, devi creare una connessione distinta per ciascuna. Per creare una connessione:
- Nella console Cloud, vai alla pagina Connettori di integrazione > Connessioni e seleziona o crea un progetto Google Cloud.
- Fai clic su + CREA NUOVO per aprire la pagina Crea connessione.
- Nella sezione Località, scegli la località della connessione.
- Regione: seleziona una località dall'elenco a discesa.
Per l'elenco di tutte le regioni supportate, consulta Località.
- Fai clic su AVANTI.
- Regione: seleziona una località dall'elenco a discesa.
- Nella sezione Dettagli connessione, completa quanto segue:
- Connettore: seleziona Splunk dall'elenco a discesa dei connettori disponibili.
- Versione del connettore: seleziona la versione del connettore dall'elenco a discesa delle versioni disponibili.
- Nel campo Nome connessione, inserisci un nome per l'istanza di connessione.
I nomi delle connessioni devono soddisfare i seguenti criteri:
- I nomi delle connessioni possono contenere lettere, numeri o trattini.
- Le lettere devono essere minuscole.
- I nomi delle connessioni devono iniziare con una lettera e terminare con una lettera o un numero.
- I nomi delle connessioni non possono superare i 49 caratteri.
- (Facoltativo) Inserisci una Descrizione per l'istanza di connessione.
- Se vuoi, attiva Cloud Logging e poi seleziona un livello di log. Per impostazione predefinita, il livello di log è impostato su
Error
. - Account di servizio: seleziona un account di servizio con i ruoli richiesti.
- (Facoltativo) Configura le impostazioni del nodo di connessione:
- Numero minimo di nodi: inserisci il numero minimo di nodi di connessione.
- Numero massimo di nodi: inserisci il numero massimo di nodi di connessione.
Un nodo è un'unità (o una replica) di una connessione che elabora le transazioni. Per elaborare più transazioni per una connessione sono necessari più nodi e, al contrario, sono necessari meno nodi per elaborare meno transazioni. Per capire in che modo i nodi influiscono sui prezzi dei connettori, consulta Prezzi per i nodi di connessione. Se non inserisci alcun valore, per impostazione predefinita il numero minimo di nodi è impostato su 2 (per una maggiore disponibilità) e il numero massimo di nodi è impostato su 50.
- Se vuoi, fai clic su + AGGIUNGI ETIQUETTA per aggiungere un'etichetta alla connessione sotto forma di coppia chiave/valore.
- Fai clic su AVANTI.
- Nella sezione Destinazioni, inserisci i dettagli dell'host remoto (sistema di backend) a cui vuoi connetterti.
- Tipo di destinazione: seleziona un Tipo di destinazione.
- Seleziona Indirizzo host dall'elenco per specificare il nome host o l'indirizzo IP della destinazione.
- Se vuoi stabilire una connessione privata ai tuoi sistemi di backend, seleziona Allegato endpoint dall'elenco, quindi seleziona l'allegato endpoint richiesto dall'elenco Allegato endpoint.
Se vuoi stabilire una connessione pubblica ai tuoi sistemi di backend con una maggiore sicurezza, puoi prendere in considerazione la configurazione di indirizzi IP statici in uscita per le tue connessioni, quindi configurare le regole del firewall in modo da inserire nella lista consentita solo gli indirizzi IP statici specifici.
Per inserire destinazioni aggiuntive, fai clic su + AGGIUNGI DESTINAZIONE.
- Fai clic su AVANTI.
- Tipo di destinazione: seleziona un Tipo di destinazione.
-
Nella sezione Autenticazione, inserisci i dettagli di autenticazione.
- Seleziona un Tipo di autenticazione e inserisci i dettagli pertinenti.
La connessione Splunk supporta i seguenti tipi di autenticazione:
- Nome utente e password (autenticazione di base)
- AccessToken
- HTTPEventCollectorToken
- Fai clic su AVANTI.
Per capire come configurare questi tipi di autenticazione, consulta Configurare l'autenticazione.
- Seleziona un Tipo di autenticazione e inserisci i dettagli pertinenti.
- Rivedi: controlla i dettagli di connessione e autenticazione.
- Fai clic su Crea.
Configura autenticazione
Inserisci i dettagli in base all'autenticazione che vuoi utilizzare.
-
Nome utente e password
- Nome utente: il nome utente Splunk da utilizzare per la connessione.
- Password: il segreto Secret Manager contenente la password associata al nome utente Splunk.
-
AccessToken: imposta questo valore per eseguire l'autenticazione basata su token utilizzando
la proprietà
AccessToken
. -
HTTPEventCollectorToken: imposta questo valore per eseguire l'autenticazione basata su token utilizzando
la proprietà
HTTPEventCollectorToken
.
Esempi di configurazione delle connessioni
Questa sezione elenca i valori di esempio per i vari campi che configuri durante la creazione della connessione Splunk.
Tipo di connessione della raccolta eventi HTTP
Nome campo | Dettagli |
---|---|
Località | us-central1 |
Connettore | Splunk |
Versione del connettore | 1 |
Nome collegamento | splunk-http-event-coll-conn |
Abilita Cloud Logging | No |
Account di servizio | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Numero minimo di nodi | 2 |
Numero massimo di nodi | 50 |
Abilita SSL | Sì |
Connessione non sicura dell'archivio attendibilità | Sì |
Tipo di destinazione(server) | Indirizzo host |
Indirizzo host | 192.0.2.0 |
Porta | PORT |
Autenticazione basata su token della raccolta eventi HTTP | Sì |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Versione secret | 1 |
Per informazioni su come creare un token di raccolta eventi HTTP, consulta Creare una raccolta eventi HTTP.
Tipo di connessione SSL
Nome campo | Dettagli |
---|---|
Località | us-central1 |
Connettore | Splunk |
Versione del connettore | 1 |
Nome collegamento | splunk-ssl-connection |
Abilita Cloud Logging | Sì |
Account di servizio | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Livello di verbosità | 5 |
Numero minimo di nodi | 2 |
Numero massimo di nodi | 50 |
Abilita SSL | Sì |
Connessione non sicura | Sì |
Tipo di destinazione(server) | Indirizzo host |
Indirizzo host | https://192.0.2.0 |
Porta | PORT |
Password utente | Sì |
Nome utente | UTENTE |
Password | PASSWORD |
Versione secret | 1 |
Per l'autenticazione di base, devi disporre del ruolo utente o del ruolo utente avanzato. Per informazioni su come configurare un utente avanzato, vedi Configurare il ruolo utente avanzato. Per informazioni sulla definizione dei ruoli in Splunk, consulta Definire il ruolo sulla piattaforma Splunk.
Entità, operazioni e azioni
Tutti i connettori di integrazione forniscono un livello di astrazione per gli oggetti dell'applicazione collegata. Puoi accedere agli oggetti di un'applicazione solo tramite questa astrazione. L'astrazione viene mostrata come entità, operazioni e azioni.
- Entità : un'entità può essere considerata un oggetto o una raccolta di proprietà nell'applicazione o nel servizio collegato. La definizione di un'entità varia da un connettore all'altro. Ad esempio, in un connettore di database le tabelle sono le entità, in un connettore di file server le cartelle sono le entità e in un connettore di sistema di messaggistica le code sono le entità.
Tuttavia, è possibile che un connettore non supporti o non abbia entità, nel qual caso l'elenco
Entities
sarà vuoto. - Operazione : un'operazione è l'attività che puoi eseguire su un'entità. Puoi eseguire su un'entità una delle seguenti operazioni:
La selezione di un'entità dall'elenco disponibile genera un elenco di operazioni disponibili per l'entità. Per una descrizione dettagliata delle operazioni, consulta le operazioni sulle entità dell'attività Connettori. Tuttavia, se un connettore non supporta nessuna delle operazioni sulle entità, queste operazioni non supportate non sono elencate nell'elenco
Operations
. - Azione : un'azione è una funzione di prima classe resa disponibile all'integrazione tramite l'interfaccia del connettore. Un'azione ti consente di apportare modifiche a una o più entità e varia da un connettore all'altro. In genere, un'azione avrà alcuni parametri di input e un parametro di output. Tuttavia, è possibile
che un connettore non supporti alcuna azione, nel qual caso l'elenco
Actions
sarà vuoto.
Limitazioni del sistema
Il connettore Splunk può elaborare 5 transazioni al secondo per nodo e limita le transazioni oltre questo limite. Tuttavia, il numero di transazioni che questo connettore può elaborare dipende anche dai vincoli imposti dall'istanza Splunk. Per impostazione predefinita, Integration Connectors alloca 2 nodi (per una maggiore disponibilità) per una connessione.
Per informazioni sui limiti applicabili a Integration Connectors, vedi Limiti.
Azioni
Questa sezione elenca le azioni supportate dal connettore. Per capire come configurare le azioni, consulta Esempi di azioni.
Azione CreateHTTPEvent
Questa azione ti consente di inviare dati ed eventi di applicazione a un deployment di Splunk tramite i protocolli HTTP e HTTPS.
Parametri di input dell'azione CreateHTTPEvent
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
EventContent | Stringa | Sì | Il nome della tabella o della visualizzazione. |
ContentType | Stringa | No | Il tipo di contenuti specificato per l'input EventContent . I valori supportati sono JSON e RAWTEXT . |
ChannelGUID | Numero intero | No | Il GUID del canale utilizzato per l'evento. Devi specificare questo valore
se ContentType è RAWTEXT . |
Parametri di output dell'azione CreateHTTPEvent
Questa azione restituisce lo stato di esito dell'evento creato.
Azione CreateIndex
Questa azione ti consente di creare indici.
Parametri di input dell'azione CreateIndex
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
MaxMetaEntries | Stringa | No | Imposta il numero massimo di righe univoche nei file .data in un bucket, il che può contribuire a ridurre il consumo di memoria. |
FrozenTimePeriodInSecs | Stringa | No | Numero di secondi dopo i quali i dati indicizzati vengono bloccati. Il valore predefinito è 188697600 (6 anni). |
HomePath | Stringa | No | Un percorso assoluto che contiene i bucket hot e warm per l'indice. |
MinRawFileSyncSecs | Stringa | No | Specifica un numero intero (o disable ) per questo parametro. Questo parametro imposta la frequenza con cui splunkd forza una sincronizzazione del file system durante la compressione dei sezioni del log. |
ProcessTrackerServiceInterval | Stringa | No | Specifica, in secondi, la frequenza con cui l'indice controlla lo stato dei processi OS secondari avviati per verificare se può avviare nuovi processi per le richieste in coda. Se impostato su 0, l'indice controlla lo stato del processo secondario ogni secondo. |
ServiceMetaPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui i metadati vengono sincronizzati sul disco. |
MaxHotSpanSecs | Stringa | No | Limite superiore dell'intervallo di tempo massimo target (in secondi) dei bucket caldi o tiepidi. |
QuarantinePastSecs | Stringa | No | Gli eventi con timestamp di quarantinePastSecs precedente a >now vengono inseriti nel bucket di quarantena. |
ColdToFrozenDir | Stringa | No | Percorso di destinazione dell'archivio congelato. Da utilizzare come alternativa a ColdToFrozenScript. |
ColdPath | Stringa | No | Un percorso assoluto contenente i database cold per l'indice. Il percorso deve essere leggibile e scrivibile. |
MaxHotIdleSecs | Stringa | No | Durata massima, in secondi, di un bucket caldo |
WarmToColdScript | Stringa | No | Percorso di uno script da eseguire durante il trasferimento dei dati da caldo a freddo. |
ColdToFrozenScript | Stringa | No | Percorso dello script di archiviazione. |
MaxHotBuckets | Stringa | No | Il numero massimo di bucket caldi che possono esistere per indice. |
TstatsHomePath | Stringa | No | Posizione in cui archiviare i dati TSIDX dell'accelerazione del modello di dati per questo indice. Se specificato, deve essere definito in termini di definizione del volume. Il percorso deve essere scrivibile |
RepFactor | Stringa | No | Controllo della replica dell'indice. Questo parametro si applica solo ai nodi peer del cluster.
|
MaxDataSize | Stringa | No | Le dimensioni massime in MB che un DB caldo deve raggiungere prima che venga attivato un trasferimento a caldo.
Se specifichi auto o auto_high_volume , Splunk ottimizza automaticamente questo parametro (opzione consigliata). |
MaxBloomBackfillBucketAge | Stringa | No | I valori validi sono: integer[m|s|h|d] se un bucket caldo o freddo è precedente alla data specificata, non creare o ricreare il relativo bloomfilter. Specifica 0 per non ricostruire mai i filtri Bloom. |
BlockSignSize | Stringa | No | Controlla il numero di eventi che compongono un blocco per le firme dei blocchi. Se è impostato su 0, la firma dei blocchi è disabilitata per questo indice. Un valore consigliato è 100. |
Nome | Stringa | Sì | Il nome dell'indice da creare |
MaxTotalDataSizeMB | Stringa | No | La dimensione massima di un indice (in MB). Se un indice diventa più grande delle dimensioni massime, i dati più vecchi vengono bloccati. |
MaxWarmDBCount | Stringa | No | Il numero massimo di bucket attivi. Se questo numero viene superato, i bucket caldi con il valore più basso per le ultime ore vengono spostati in quelli freddi. |
RawChunkSizeBytes | Stringa | No | Dimensione non compressa target in byte per il singolo slice non elaborato nel log dei dati non elaborati dell'indice. 0 non è un valore valido. Se viene specificato 0, rawChunkSizeBytes viene impostato sul valore predefinito. |
DataType | Stringa | No | Specifica il tipo di indice |
MaxConcurrentOptimizes | Stringa | No | Il numero di processi di ottimizzazione in parallelo che possono essere eseguiti su un bucket hot. |
ThrottleCheckPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui Splunk controlla la condizione di throttling dell'indice. |
SyncMeta | Stringa | No | Se è true, viene chiamata un'operazione di sincronizzazione prima che il descrittore di file venga chiuso per gli aggiornamenti dei file di metadati. Questa funzionalità migliora l'integrità dei file dei metadati, in particolare in merito a arresti anomali del sistema operativo o guasti della macchina. |
RotatePeriodInSecs | Stringa | No | La frequenza (in secondi) con cui verificare se è necessario creare un nuovo bucket hot. Inoltre, quanto spesso controllare se ci sono secchi caldi/freddi che devono essere arrotolati/congelati. |
Parametri di output dell'azione CreateIndex
Questa azione restituisce il messaggio di conferma dell'azione CreateIndex.
Ad esempio, per scoprire come configurare l'azione CreateIndex
, consulta Esempi di azioni.
Azione CreateSavedSearch
Questa azione ti consente di salvare le ricerche
Parametri di input dell'azione CreateSavedSearch
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
IsVisible | Booleano | Sì | Indica se questa ricerca salvata viene visualizzata nell'elenco delle ricerche salvate visibili. |
RealTimeSchedule | Booleano | Sì | Se questo valore è impostato su 1, lo scheduler basa la determinazione della successiva ora di esecuzione della ricerca pianificata sull'ora corrente. Se questo valore è impostato su 0, viene determinato in base all'ora dell'ultima esecuzione della ricerca. |
Cerca | Stringa | Sì | La query di ricerca da salvare |
Descrizione | Stringa | No | Descrizione di questa ricerca salvata |
SchedulePriority | Stringa | Sì | Indica la priorità di pianificazione di una ricerca specifica |
CronSchedule | Stringa | Sì | La pianificazione di cron per eseguire questa ricerca. Ad esempio, */5 * * * *
provoca l'esecuzione della ricerca ogni 5 minuti. |
Nome | Stringa | Sì | Un nome per la ricerca |
UserContext | Stringa | Sì | Se viene fornito il contesto utente, viene utilizzato il nodo servicesNS (/servicesNS/[UserContext]/search), altrimenti viene utilizzato l'endpoint generale /services . |
RunOnStartup | Booleano | Sì | Indica se questa ricerca viene eseguita all'avvio. Se non viene eseguita all'avvio, la ricerca viene eseguita all'ora pianificata successiva. |
Disabilitato | Booleano | No | Indica se questa ricerca salvata è disattivata. |
IsScheduled | Booleano | Sì | Indica se questa ricerca deve essere eseguita in base a una pianificazione. |
Parametri di output dell'azione CreateSavedSearch
Questa azione restituisce il messaggio di conferma dell'azione CreateSavedSearch.
Ad esempio, per scoprire come configurare l'azione CreateSavedSearch
, consulta Esempi di azioni.
Azione AggiornamentoRicercaSalvata
Questa azione ti consente di aggiornare una ricerca salvata.
Parametri di input dell'azione AggiornaRicercaSalvata
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
IsVisible | Booleano | Sì | Indica se questa ricerca salvata viene visualizzata nell'elenco delle ricerche salvate visibili. |
RealTimeSchedule | Booleano | Sì | Se questo valore è impostato su 1, lo scheduler basa la determinazione della data e dell'ora di esecuzione della ricerca programmata successiva sull'ora corrente. Se questo valore è impostato su 0, viene determinato in base all'ora dell'ultima esecuzione della ricerca. |
Cerca | Stringa | Sì | La query di ricerca da salvare |
Descrizione | Stringa | No | Descrizione di questa ricerca salvata |
SchedulePriority | Stringa | Sì | Indica la priorità di pianificazione di una ricerca specifica |
CronSchedule | Stringa | Sì | La pianificazione di cron per eseguire questa ricerca. Ad esempio, */5 * * * * fa sì che la ricerca venga eseguita ogni 5 minuti. |
Nome | Stringa | Sì | Un nome per la ricerca |
UserContext | Stringa | Sì | Se viene fornito il contesto utente, viene utilizzato il nodo servicesNS (/servicesNS/[UserContext]/search),
in caso contrario, viene utilizzato l'endpoint generale /services . |
RunOnStartup | Booleano | Sì | Indica se questa ricerca viene eseguita all'avvio. Se non viene eseguita all'avvio, la ricerca viene eseguita all'ora pianificata successiva. |
Disabilitato | Booleano | No | Indica se questa ricerca salvata è disattivata. |
IsScheduled | Booleano | Sì | Indica se questa ricerca deve essere eseguita in base a una pianificazione. |
Parametri di output dell'azione UpdateSavedSearch
Questa azione restituisce il messaggio di conferma dell'azione AggiornaRicercaSalvata.
Ad esempio, per scoprire come configurare l'azione UpdateSavedSearch
, consulta Esempi di azioni.
Azione DeleteIndex
Questa azione ti consente di eliminare un indice.
Parametri di input dell'azione DeleteIndex
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
Nome | Stringa | Sì | Il nome dell'indice da eliminare. |
Parametri di output dell'azione DeleteIndex
Questa azione restituisce il messaggio di conferma dell'azione DeleteIndex
Ad esempio, per scoprire come configurare l'azione DeleteIndex
, consulta Esempi di azioni.
Azione UpdateIndex
Questa azione ti consente di aggiornare un indice.
Parametri di input dell'azione Aggiorna indice
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
MaxMetaEntries | Stringa | No | Imposta il numero massimo di righe univoche nei file .data in un bucket, il che può contribuire a ridurre il consumo di memoria. |
FrozenTimePeriodInSecs | Stringa | No | Numero di secondi dopo i quali i dati indicizzati vengono bloccati. Il valore predefinito è 188697600 (6 anni). |
HomePath | Stringa | No | Un percorso assoluto che contiene i bucket hot e warm per l'indice. |
MinRawFileSyncSecs | Stringa | No | Specifica un numero intero (o disable ) per questo parametro. Questo parametro imposta la frequenza con cui splunkd forza una sincronizzazione del file system durante la compressione dei sezioni del log. |
ProcessTrackerServiceInterval | Stringa | No | Specifica, in secondi, la frequenza con cui l'indicizzatore controlla lo stato dei processi OS secondari avviati per verificare se può avviare nuovi processi per le richieste in coda. Se impostato su 0, l'indice controlla lo stato del processo secondario ogni secondo. |
ServiceMetaPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui i metadati vengono sincronizzati sul disco. |
MaxHotSpanSecs | Stringa | No | Limite superiore dell'intervallo di tempo massimo target (in secondi) dei bucket caldi o tiepidi. |
QuarantinePastSecs | Stringa | No | Gli eventi con timestamp di quarantinePastSecs precedente a now vengono inseriti nel bucket di quarantena. |
ColdToFrozenDir | Stringa | No | Percorso di destinazione dell'archivio congelato. Da utilizzare come alternativa a ColdToFrozenScript. |
ColdPath | Stringa | No | Un percorso assoluto contenente i database cold per l'indice. Il percorso deve essere leggibile e scrivibile. |
MaxHotIdleSecs | Stringa | No | Durata massima, in secondi, di un bucket hot. |
WarmToColdScript | Stringa | No | Percorso di uno script da eseguire durante il trasferimento dei dati da caldo a freddo. |
ColdToFrozenScript | Stringa | No | Percorso dello script di archiviazione. |
MaxHotBuckets | Stringa | No | Il numero massimo di bucket caldi che possono esistere per indice. |
TstatsHomePath | Stringa | No | Posizione in cui archiviare i dati TSIDX dell'accelerazione del modello di dati per questo indice. Se specificato, deve essere definito in termini di definizione del volume. Il percorso deve essere scrivibile |
RepFactor | Stringa | No | Controllo della replica dell'indice. Questo parametro si applica solo ai nodi peer del cluster.
|
MaxDataSize | Stringa | No | Le dimensioni massime in MB che un DB caldo deve raggiungere prima che venga attivato un trasferimento a caldo.
Se specifichi auto o auto_high_volume , Splunk esegue l'ottimizzazione automatica di questo parametro (opzione consigliata). |
MaxBloomBackfillBucketAge | Stringa | No | I valori validi sono: integer[m|s|h|d] se un bucket caldo o freddo è precedente alla data specificata, non creare o ricostruire il relativo bloomfilter. Specifica 0 per non ricostruire mai i filtri Bloom. |
BlockSignSize | Stringa | No | Controlla il numero di eventi che compongono un blocco per le firme dei blocchi. Se questo valore è impostato su 0, la firma dei blocchi è disabilitata per questo indice. Un valore consigliato è 100. |
Nome | Stringa | Sì | Il nome dell'indice da creare |
MaxTotalDataSizeMB | Stringa | Sì | La dimensione massima di un indice (in MB). Se un indice diventa più grande delle dimensioni massime, i dati più vecchi vengono bloccati. |
MaxWarmDBCount | Stringa | No | Il numero massimo di bucket attivi. Se questo numero viene superato, i bucket caldi con il valore più basso per le ultime ore vengono spostati in quelli freddi. |
RawChunkSizeBytes | Stringa | No | Dimensione non compressa target in byte per il singolo slice non elaborato nel log rawdata dell'indice. 0 non è un valore valido. Se viene specificato 0, rawChunkSizeBytes viene impostato sul valore predefinito. |
DataType | Stringa | No | Specifica il tipo di indice |
MaxConcurrentOptimizes | Stringa | No | Il numero di processi di ottimizzazione in parallelo che possono essere eseguiti su un bucket hot. |
ThrottleCheckPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui Splunk controlla la condizione di throttling dell'indice. |
SyncMeta | Stringa | No | Se è true, viene chiamata un'operazione di sincronizzazione prima che il descrittore del file venga chiuso per gli aggiornamenti dei file dei metadati. Questa funzionalità migliora l'integrità dei file dei metadati, in particolare in merito ai crash del sistema operativo o ai guasti della macchina. |
RotatePeriodInSecs | Stringa | No | La frequenza (in secondi) con cui verificare se è necessario creare un nuovo bucket hot. Inoltre, la frequenza con cui controllare se sono presenti bucket caldi o freddi che devono essere sottoposti a rotazione o congelati. |
Parametri di output dell'azione Aggiornaindice
Questa azione restituisce il messaggio di conferma dell'azione UpdateIndex.
Ad esempio, per scoprire come configurare l'azione UpdateIndex
, consulta Esempi di azioni.
Esempi di azioni
Esempio: crea un evento HTTP
Questo esempio crea un evento HTTP.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
CreateHTTPEvent
e poi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task CreateHTTPEvent
avrà un valore simile al seguente:
[{ "Success": "Success" }]
Esempio: crea un indice
Questo esempio crea un indice.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
CreateIndex
e poi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "http_testing" }
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task CreateIndex
avrà un valore simile al seguente:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Esempio: creare una ricerca salvata
Questo esempio crea una ricerca salvata.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
CreateSavedSearch
e poi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task CreateSavedSearch
avrà un valore simile al seguente:
[{ "Success": true, "Message": null }]
Esempio: aggiornare una ricerca salvata
Questo esempio aggiorna una ricerca salvata.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
UpdateSavedSearch
e poi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task UpdateSavedSearch
avrà un valore simile al seguente:
[{ "Success": true, "Message": null }]
Esempio: elimina un indice
Questo esempio elimina un indice.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
DeleteIndex
e poi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "g_http_testing" }
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task DeleteIndex
avrà un valore simile al seguente:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Esempio: aggiorna un indice
Questo esempio aggiorna un indice.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
UpdateIndex
e poi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task UpdateIndex
avrà un valore simile al seguente:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Esempi di operazioni sulle entità
Questa sezione mostra come eseguire alcune delle operazioni sulle entità in questo connettore.
Esempio: elenca tutti i record
Questo esempio elenca tutti i record nell'entità SearchJobs
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
List
e poi fai clic su Fine. - Se vuoi, nella sezione Input dell'attività dell'attività Connettori, puoi filtrare il set di risultati specificando una clausola di filtro. Specifica sempre il valore della clausola di filtro tra virgolette singole (').
Esempio: ottieni un record da un'entità
Questo esempio recupera un record con l'ID specificato dall'entità SearchJobs
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Get
e poi fai clic su Fine. - Nella sezione Input dell'attività dell'attività Connettori, fai clic su EntityId e poi inserisci
1698309163.1300
nel campo Valore predefinito.In questo caso,
1698309163.1300
è un ID record univoco nell'entitàSearchJobs
.
Esempio: crea un record in un'entità
Questo esempio crea un record nell'entità SearchJobs
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
e fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Se l'integrazione è riuscita, il parametro di risposta
connectorOutputPayload
della taskSearchJobs
avrà un valore simile al seguente:{ "Sid": "1699336785.1919" }
Esempio: crea un record in un'entità
Questo esempio crea un record nell'entità DataModels
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
DataModels
dall'elencoEntity
. - Seleziona l'operazione
Create
e fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Se l'integrazione è andata a buon fine, il campo
connectorOutputPayload
dell'attività del connettore avrà un valore simile al seguente:[{ "Id": "Test1" }]
Esempio: elimina un record da un'entità
Questo esempio elimina il record con l'ID specificato nell'entità DataModels
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
DataModels
dall'elencoEntity
. - Seleziona l'operazione
Delete
e fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su entityId e poi inserisci
Test1
nel campo Valore predefinito.
Esempio: aggiorna un record in un'entità
Questo esempio aggiorna un record nell'entità DataModels
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
DataModels
dall'elencoEntity
. - Seleziona l'operazione
Update
e fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Fai clic su entityId e inserisci
/servicesNS/nobody/search/datamodel/model/Testing
nel campo Valore predefinito.Se l'integrazione è andata a buon fine, il campo
connectorOutputPayload
dell'attività del connettore avrà un valore simile al seguente:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Esempio: flusso di ricerca che utilizza l'indice
Questa sezione elenca tutto il flusso di ricerca che utilizza un singolo indice e più indici.
Creare una ricerca utilizzando un singolo indice
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
e fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Se l'integrazione è riuscita, il parametro di risposta
connectorOutputPayload
della taskSearchJobs
avrà un valore simile al seguente:{ "Sid": "1726051471.76" }
Operazione di elenco che utilizza il nome dell'indice utilizzato nella query di ricerca
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
Index Name
dall'elencoEntity
. - Seleziona l'operazione
List
e poi fai clic su Fine. - Nella sezione Input dell'attività dell'attività Connettori, puoi impostare la clausola di filtro, ad esempio Sid= '1726051471.76'.
Se l'integrazione è riuscita, il parametro di risposta connectorOutputPayload
della task Index Name
avrà un valore simile al seguente:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Creare una ricerca utilizzando più indici
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
e fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se l'integrazione è riuscita, il parametro di risposta
connectorOutputPayload
della taskSearchJobs
avrà un valore simile al seguente:{ "Sid": "1727261971.4007" }
Operazione di elenco che utilizza il nome degli indici utilizzato nella query di ricerca
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
Index Name
Nome dall'elencoEntity
. - Seleziona l'operazione
List
e poi fai clic su Fine. - Nella sezione Input dell'attività dell'attività Connettori, puoi impostare la clausola di filtro, ad esempio Sid= '1727261971.4007'.
Se l'integrazione è riuscita, il parametro di risposta connectorOutputPayload
della task Index
avrà un valore simile al seguente:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Esempio: flusso di ricerca che utilizza ReadJobResults
Questa sezione elenca tutti i flussi di ricerca che utilizzano sia un singolo indice sia più indici supportati dalla connessione Splunk. Al momento,la dimensione massima del payload per i risultati dei log supportati è di 150 MB.
Creare una ricerca con un solo indice
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
e fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Questo esempio crea una ricerca. Se l'integrazione è riuscita, il parametro risposta
connectorOutputPayload
della taskSearchJobs
avrà un valore simile al seguente:{ "Sid": "1732775755.24612" }
Per ottenere i risultati di ricerca, esegui l'operazione di creazione sull'azione ReadJobResults. Per assicurarti che i risultati vengano filtrati in base al SID, passa il SID come parametro all'azione.
Ottenere i log dei risultati utilizzando l'azione ReadJobResults
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
ReadJobResults
e poi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "Sid": "1732775755.24612" }
Se l'azione ha esito positivo, il parametro di risposta
connectorOutputPayload
della task ReadJobResults
avrà un valore simile al seguente:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Creare una ricerca con più indici
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
e fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se l'integrazione è riuscita, il parametro di risposta
connectorOutputPayload
della taskSearchJobs
avrà un valore simile al seguente:{ "Sid": "1732776556.24634" }
Per ottenere i risultati di ricerca, esegui l'operazione di creazione sull'azione ReadJobResults. Per assicurarti che i risultati vengano filtrati in base al SID, passa il SID come parametro all'azione.
ResultsLogs che utilizza l'azione ReadJobResults
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
ReadJobResults
e poi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dei dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nelInput Value
campo e scegli EntityId/ConnectorInputPayload come variabile locale.{ "Sid": "1732776556.24634" }
- Per informazioni su come creare e utilizzare l'attività Connectors in Apigee Integration, consulta Attività Connectors.
- Per informazioni su come creare e utilizzare l'attività Connettori in Application Integration, consulta Attività Connettori.
- Scopri come sospendere e riprendere una connessione.
- Scopri come monitorare l'utilizzo dei connettori.
- Scopri come visualizzare i log dei connettori.
Se l'azione ha esito positivo, il parametro di risposta connectorOutputPayload
della task ReadJobResults
avrà un valore simile al seguente:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Utilizzare Terraform per creare connessioni
Puoi utilizzare la risorsa Terraform per creare una nuova connessione.Per scoprire come applicare o rimuovere una configurazione Terraform, consulta Comandi Terraform di base.
Per visualizzare un modello Terraform di esempio per la creazione di una connessione, consulta il modello di esempio.
Quando crei questa connessione utilizzando Terraform, devi impostare le seguenti variabili nel file di configurazione Terraform:
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
livello di dettaglio | STRING | Falso | Livello di dettaglio per la connessione, da 1 a 5. Un livello di dettaglio più elevato registrerà tutti i dettagli della comunicazione (richiesta,risposta e certificati SSL). |
proxy_enabled | BOOLEANO | Falso | Seleziona questa casella di controllo per configurare un server proxy per la connessione. |
proxy_auth_scheme | ENUM | Falso | Il tipo di autenticazione da utilizzare per l'autenticazione al proxy ProxyServer. I valori supportati sono: BASIC, DIGEST, NONE |
proxy_user | STRING | Falso | Un nome utente da utilizzare per l'autenticazione al proxy ProxyServer. |
proxy_password | SEGRETO | Falso | Una password da utilizzare per l'autenticazione al proxy ProxyServer. |
proxy_ssltype | ENUM | Falso | Il tipo di SSL da utilizzare per la connessione al proxy ProxyServer. I valori supportati sono: AUTO, ALWAYS, NEVER, TUNNEL |
Utilizzare la connessione Splunk in un'integrazione
Una volta creata, la connessione diventa disponibile sia nell'integrazione Apigee sia nell'integrazione delle applicazioni. Puoi utilizzare la connessione in un'integrazione tramite l'attività Connettori.