Splunk
Com o conector do Splunk, você pode realizar operações de inserção, exclusão, atualização e leitura no banco de dados do Splunk.
Antes de começar
Antes de usar o conector do Splunk, faça o seguinte:
- No seu projeto do Google Cloud, faça o seguinte:
- Verifique se a conectividade de rede está configurada. Para informações sobre padrões de rede, consulte Conectividade de rede.
- Conceda a função IAM roles/connectors.admin ao usuário que está configurando o conector.
- Conceda os seguintes papéis de IAM à conta de serviço que você quer usar para o conector:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Uma conta de serviço é um tipo especial de Conta do Google destinada a representar um usuário não humano que precisa ser autenticado e autorizado a acessar dados nas APIs do Google. Se você não tiver uma conta de serviço, será necessário criar uma. Para mais informações, consulte Como criar uma conta de serviço.
- Ative os seguintes serviços:
secretmanager.googleapis.com
(API Secret Manager)connectors.googleapis.com
(API Connectors)
Para entender como ativar os serviços, consulte Como ativar serviços.
Se esses serviços ou permissões não tiverem sido ativados no seu projeto, você precisará ativá-los ao configurar o conector.
Configurar o conector
Para configurar o conector, crie uma conexão com a fonte de dados (sistema de back-end). Uma conexão é específica a uma fonte de dados. Isso significa que, se você tiver muitas fontes de dados, precisará criar uma conexão separada para cada uma. Para criar uma conexão, siga estas etapas:
- No console do Cloud, acesse a página Integration Connectors > Conexões e selecione ou crie um projeto do Google Cloud.
- Clique em + CRIAR NOVO para abrir a página Criar conexão.
- Na seção Local, escolha o local da conexão.
- Região: selecione um local na lista suspensa.
Para conferir a lista de todas as regiões com suporte, consulte Locais.
- Clique em PRÓXIMA.
- Região: selecione um local na lista suspensa.
- Na seção Detalhes da conexão, faça o seguinte:
- Conector: selecione Splunk na lista suspensa de conectores disponíveis.
- Versão do conector: selecione a versão do conector na lista suspensa de versões disponíveis.
- No campo Nome da conexão, insira um nome para a instância de conexão
Os nomes de conexão precisam atender aos seguintes critérios:
- Os nomes de conexões podem usar letras, números ou hifens.
- As letras precisam ser minúsculas.
- Os nomes das conexões precisam começar com uma letra e terminar com uma letra ou um número.
- Os nomes das conexões não podem ter mais de 49 caracteres.
- Como opção, insira uma Descrição para a instância de conexão.
- Como opção, ative o Cloud Logging e selecione um nível de registro. Por padrão, o nível de registro é definido como
Error
. - Conta de serviço: selecione uma conta de serviço que tenha os papéis necessários.
- Opcionalmente, defina as Configurações do nó de conexão:
- Número mínimo de nós: digite o número mínimo de nós de conexão.
- Número máximo de nós: digite o número máximo de nós de conexão.
Um nó é uma unidade (ou réplica) de uma conexão que processa transações. Mais nós são necessários para processar mais transações para uma conexão e, por outro lado, menos nós são necessários para processar menos transações. Para entender como os nós afetam os preços do conector, consulte Preços dos nós de conexão. Se você não inserir qualquer valor, por padrão, os nós mínimos serão definidos como 2 (para melhor disponibilidade) e os nós máximos serão definidos como 50.
- Outra opção é clicar em + ADICIONAR MARCADOR para adicionar um rótulo à conexão na forma de um par de chave-valor.
- Clique em PRÓXIMA.
- Na seção Destinos, insira os detalhes do host remoto (sistema de back-end) ao qual você quer se conectar.
- Tipo de destino: selecione um Tipo de destino.
- Selecione Endereço do host na lista para especificar o nome do host ou o endereço IP do destino.
- Para estabelecer uma conexão particular com seus sistemas de back-end, Selecione Anexo de endpoint na lista e depois selecione o anexo de endpoint necessário. na lista Endpoint Attachment.
Para estabelecer uma conexão pública com os sistemas de back-end com mais segurança, considere configurar endereços IP de saída estáticos para suas conexões e configure as regras de firewall para autorizar apenas os endereços IP estáticos específicos.
Para inserir outros destinos, clique em +ADICIONAR DESTINO.
- Clique em PRÓXIMA.
- Tipo de destino: selecione um Tipo de destino.
-
Na seção Autenticação, insira os detalhes da autenticação.
- Selecione um Tipo de autenticação e insira os detalhes relevantes.
Os seguintes tipos de autenticação oferecem suporte à conexão do Splunk:
- Nome de usuário e senha (autenticação básica)
- AccessToken
- HTTPEventCollectorToken
- Clique em PRÓXIMA.
Para entender como configurar esses tipos de autenticação, consulte Configurar autenticação.
- Selecione um Tipo de autenticação e insira os detalhes relevantes.
- Revisão: revise os detalhes de conexão e autenticação.
- Clique em Criar.
Configurar a autenticação
Digite os detalhes com base na autenticação que você quer usar.
-
Nome de usuário e senha
- Nome de usuário: o nome de usuário do Splunk a ser usado para a conexão.
- Senha: o Secret do Secret Manager que contém a senha associada ao nome de usuário do Splunk.
-
AccessToken: defina esse valor para realizar a autenticação baseada em token usando a propriedade
AccessToken
. -
HTTPEventCollectorToken: defina esse valor para realizar a autenticação baseada em token usando a propriedade
HTTPEventCollectorToken
.
Exemplos de configuração de conexão
Esta seção lista os valores de exemplo para os vários campos que você configura ao criar a conexão do Splunk.
Tipo de conexão do coletor de eventos HTTP
Nome do campo | Detalhes |
---|---|
Local | us-central1 |
Conector | Splunk |
Versão do conector | 1 |
Nome da conexão | splunk-http-event-coll-conn |
Ativar Cloud Logging | Não |
Conta de serviço | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Número mínimo de nós | 2 |
Número máximo de nós | 50 |
Ativar SSL | Sim |
Conexão não segura do repositório de confiança | Sim |
Tipo de destino(servidor) | Endereço do host |
Endereço do host | 192.0.2.0 |
Porta | PORT |
Autenticação baseada em token do coletor de eventos HTTP | Sim |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Versão do secret | 1 |
Para saber como criar um token de coletor de eventos HTTP, consulte Criar um coletor de eventos HTTP.
Tipo de conexão SSL
Nome do campo | Detalhes |
---|---|
Local | us-central1 |
Conector | Splunk |
Versão do conector | 1 |
Nome da conexão | splunk-ssl-connection |
Ativar Cloud Logging | Sim |
Conta de serviço | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Nível de detalhamento | 5 |
Número mínimo de nós | 2 |
Número máximo de nós | 50 |
Ativar SSL | Sim |
Conexão não segura | Sim |
Tipo de destino(servidor) | Endereço do host |
Endereço do host | https://192.0.2.0 |
Porta | PORT |
Senha de usuário inválida. | Sim |
Nome do usuário | USUÁRIO |
Senha | SENHA |
Versão do secret | 1 |
Para a autenticação básica, você precisa ter a função do usuário ou de função do usuário avançado. Para saber como configurar um usuário avançado, consulte Configurar o papel de usuário avançado. Para saber como definir papéis no Splunk, consulte Definir o papel na plataforma do Splunk.
Entidades, operações e ações
Todos os Integration Connectors fornecem uma camada de abstração para os objetos do aplicativo conectado. Só é possível acessar os objetos de um aplicativo por esta abstração. A abstração é exposta a você como entidades, operações e ações.
- Entidade: uma entidade pode ser considerada um objeto ou um conjunto de propriedades no aplicativo ou serviço conectado. A definição de uma entidade difere de um conector para
outro. Por exemplo, em um conector de banco de dados, as tabelas são as entidades, em um conector de servidor de arquivos, as pastas são as entidades e, em um conector de sistema de mensagens, as filas são as entidades.
No entanto, é possível que um conector não aceite ou não tenha entidades. Nesse caso, a lista
Entities
estará vazia. - Operação: uma operação é a atividade que pode ser realizada em uma entidade. É possível executar
qualquer uma das seguintes operações em uma entidade:
Selecionar uma entidade na lista disponível gera uma lista de operações disponíveis para ela. Para uma descrição detalhada das operações, consulte as operações de entidades da tarefa "Conectores". No entanto, se um conector não oferecer suporte a nenhuma das operações de entidade, essas operações sem suporte não serão listadas na lista
Operations
. - Ação: uma ação é uma função de primeira classe disponibilizada para a integração por meio da interface do conector. Uma ação permite fazer alterações em uma ou mais entidades e varia de um conector para outro. Normalmente, uma ação tem alguns parâmetros de entrada e um parâmetro
de saída. No entanto, é possível que o conector não ofereça suporte a nenhuma ação. Nesse caso, a lista
Actions
estará vazia.
Limitações do sistema
O conector do Splunk pode processar cinco transações por segundo, por nó, e limita todas as transações além desse limite. No entanto, o número de transações que esse conector pode processar também depende das restrições impostas pela instância do Splunk. Por padrão, os Integration Connectors alocam dois nós (para melhor disponibilidade) para uma conexão.
Para informações sobre os limites aplicáveis aos Integration Connectors, consulte Limites.
Ações
Esta seção lista as ações compatíveis com o conector. Para entender como configurar as ações, consulte Exemplos de ação.
Ação CreateHTTPEvent
Com essa ação, é possível enviar dados e eventos de aplicativos para uma implantação do Splunk usando os protocolos HTTP e HTTPS.
Parâmetros de entrada da ação CreateHTTPEvent
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
EventContent | String | Sim | O nome da tabela ou visualização. |
ContentType | String | Não | O tipo de conteúdo especificado para a entrada EventContent . Os valores aceitos
são JSON e RAWTEXT . |
ChannelGUID | Número inteiro | Não | O GUID do canal usado para o evento. Especifique esse valor
se ContentType for RAWTEXT . |
Parâmetros de saída da ação CreateHTTPEvent
Essa ação retorna o status de sucesso do evento criado.
Ação CreateIndex
Essa ação permite criar índices.
Parâmetros de entrada da ação CreateIndex
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
MaxMetaEntries | String | Não | Define o número máximo de linhas exclusivas em arquivos .data em um bucket, o que pode ajudar a reduzir o consumo de memória. |
FrozenTimePeriodInSecs | String | Não | Número de segundos após o qual os dados indexados são congelados. O padrão é 188697600 (seis anos). |
HomePath | String | Não | Um caminho absoluto que contém os buckets quentes e aquecidos para o índice. |
MinRawFileSyncSecs | String | Não | Especifique um número inteiro (ou disable ) para esse parâmetro. Esse parâmetro define
a frequência com que o splunkd força uma sincronização do sistema de arquivos ao compactar fatias de registro. |
ProcessTrackerServiceInterval | String | Não | Especifica, em segundos, com que frequência o indexador verifica o status dos processos do SO filho que ele iniciou para saber se pode iniciar novos processos para solicitações em fila. Se definido como 0, o indexador verifica o status do processo filho a cada segundo. |
ServiceMetaPeriod | String | Não | Define a frequência (em segundos) com que os metadados são sincronizados com o disco. |
MaxHotSpanSecs | String | Não | Limite máximo do período de tempo de destino (em segundos) de buckets quentes ou mornos. |
QuarantinePastSecs | String | Não | Os eventos com carimbo de data/hora de quarantinePastSecs mais antigos que >now são descartados no bucket de quarentena. |
ColdToFrozenDir | String | Não | Caminho de destino do arquivo congelado. Use como alternativa a um ColdToFrozenScript. |
ColdPath | String | Não | Um caminho absoluto que contém as colddbs para o índice. O caminho precisa ser legível e gravável. |
MaxHotIdleSecs | String | Não | Vida útil máxima, em segundos, de um bucket quente |
WarmToColdScript | String | Não | Caminho para um script a ser executado ao mover dados de quente para frio. |
ColdToFrozenScript | String | Não | Caminho para o script de arquivamento. |
MaxHotBuckets | String | Não | Número máximo de buckets quentes que podem existir por índice. |
TstatsHomePath | String | Não | Local para armazenar dados de TSIDX de aceleração de datamodel para este índice. Se especificado, ele precisa ser definido em termos de uma definição de volume. O caminho precisa ser gravável |
RepFactor | String | Não | Controle de replicação de índice. Esse parâmetro se aplica apenas a nós pares no cluster.
|
MaxDataSize | String | Não | O tamanho máximo em MB que um DB quente precisa alcançar antes que um roll to warm seja acionado.
Especificar auto ou auto_high_volume faz com que o Splunk
ajuste automaticamente esse parâmetro (recomendado). |
MaxBloomBackfillBucketAge | String | Não | Os valores válidos são: integer[m|s|h|d] se um bucket quente ou frio for mais antigo do que a idade especificada, não crie nem recrie o bloomfilter dele. Especifique 0 para nunca recriar bloomfilters. |
BlockSignSize | String | Não | Controla quantos eventos compõem um bloco para assinaturas de bloco. Se esse valor for definido como 0, a assinatura de bloco será desativada para esse índice. O valor recomendado é 100. |
Nome | String | Sim | O nome do índice a ser criado |
MaxTotalDataSizeMB | String | Não | O tamanho máximo de um índice (em MB). Se um índice crescer além do tamanho máximo, os dados mais antigos serão congelados. |
MaxWarmDBCount | String | Não | O número máximo de buckets aquecidos. Se esse número for excedido, os buckets quentes com o valor mais baixo para os tempos mais recentes serão movidos para a categoria "frio". |
RawChunkSizeBytes | String | Não | Tamanho não compactado desejado em bytes para fatia bruta individual no diário de dados brutos do índice. 0 não é um valor válido. Se 0 for especificado, o valor padrão será usado para rawChunkSizeBytes. |
DataType | String | Não | Especifica o tipo de índice |
MaxConcurrentOptimizes | String | Não | O número de processos de otimização simultâneos que podem ser executados em um bucket quente. |
ThrottleCheckPeriod | String | Não | Define a frequência (em segundos) com que o Splunk verifica a condição de limitação do índice. |
SyncMeta | String | Não | Quando verdadeiro, uma operação de sincronização é chamada antes que o descritor de arquivo seja fechado nas atualizações de arquivos de metadados. Essa funcionalidade melhora a integridade dos arquivos de metadados, principalmente em relação a falhas do sistema operacional ou da máquina. |
RotatePeriodInSecs | String | Não | Frequência (em segundos) de verificação se um novo bucket quente precisa ser criado. Além disso, com que frequência é necessário verificar se há buckets quentes/frios que precisam ser rolados/congelados. |
Parâmetros de saída da ação CreateIndex
Essa ação retorna a mensagem de confirmação da ação CreateIndex.
Para saber como configurar a ação CreateIndex
,
consulte Exemplos de ação.
Ação "CreateSavedSearch"
Essa ação permite salvar suas pesquisas
Parâmetros de entrada da ação CreateSavedSearch
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
IsVisible | Booleano | Sim | Indica se essa pesquisa salva aparece na lista de pesquisas salvas visível. |
RealTimeSchedule | Booleano | Sim | Se esse valor for definido como 1, o programador vai basear a determinação do próximo horário de execução da pesquisa programada no horário atual. Se esse valor for definido como 0, ele será determinado com base no último tempo de execução da pesquisa. |
Pesquisar | String | Sim | A consulta de pesquisa a ser salva |
Descrição | String | Não | Descrição da pesquisa salva |
SchedulePriority | String | Sim | Indica a prioridade de programação de uma pesquisa específica |
CronSchedule | String | Sim | A programação cron para executar essa pesquisa. Por exemplo, */5 * * * *
faz com que a pesquisa seja executada a cada cinco minutos. |
Nome | String | Sim | Um nome para a pesquisa |
UserContext | String | Sim | Se o contexto do usuário for fornecido, o nó servicesNS será usado
(/servicesNS/[UserContext]/search). Caso contrário, o padrão será o endpoint geral, /services . |
RunOnStartup | Booleano | Sim | Indica se essa pesquisa é executada na inicialização. Se ela não for executada na inicialização, a pesquisa será executada no próximo horário programado. |
Desativado | Booleano | Não | Indica se a pesquisa salva está desativada. |
IsScheduled | Booleano | Sim | Indica se a pesquisa será executada em uma programação. |
Parâmetros de saída da ação CreateSavedSearch
Essa ação retorna a mensagem de confirmação da ação "CreateSavedSearch".
Para saber como configurar a ação CreateSavedSearch
,
consulte Exemplos de ação.
Ação "UpdateSavedSearch"
Essa ação permite atualizar uma pesquisa salva.
Parâmetros de entrada da ação "UpdateSavedSearch"
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
IsVisible | Booleano | Sim | Indica se essa pesquisa salva aparece na lista de pesquisas salvas visível. |
RealTimeSchedule | Booleano | Sim | Se esse valor for definido como 1, o programador vai basear a determinação do próximo horário de execução da pesquisa programada no horário atual. Se esse valor for definido como 0, ele será determinado com base no último tempo de execução da pesquisa. |
Pesquisar | String | Sim | A consulta de pesquisa a ser salva |
Descrição | String | Não | Descrição da pesquisa salva |
SchedulePriority | String | Sim | Indica a prioridade de programação de uma pesquisa específica |
CronSchedule | String | Sim | A programação cron para executar essa pesquisa. Por exemplo, */5 * * * * faz com que a pesquisa seja executada a cada 5 minutos. |
Nome | String | Sim | Um nome para a pesquisa |
UserContext | String | Sim | Se o contexto do usuário for fornecido, o nó servicesNS será usado (/servicesNS/[UserContext]/search).
Caso contrário, o endpoint geral, /services , será usado por padrão. |
RunOnStartup | Booleano | Sim | Indica se essa pesquisa é executada na inicialização. Se ela não for executada na inicialização, a pesquisa será executada no próximo horário programado. |
Desativado | Booleano | Não | Indica se a pesquisa salva está desativada. |
IsScheduled | Booleano | Sim | Indica se a pesquisa será executada em uma programação. |
Parâmetros de saída da ação UpdateSavedSearch
Essa ação retorna a mensagem de confirmação da ação "UpdateSavedSearch".
Para saber como configurar a ação UpdateSavedSearch
,
consulte Exemplos de ação.
Ação DeleteIndex
Essa ação permite excluir um índice.
Parâmetros de entrada da ação DeleteIndex
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
Nome | String | Sim | O nome do índice a ser excluído. |
Parâmetros de saída da ação DeleteIndex
Esta ação retorna a mensagem de confirmação da ação DeleteIndex.
Para saber como configurar a ação DeleteIndex
,
consulte Exemplos de ação.
Ação "UpdateIndex"
Essa ação permite atualizar um índice.
Parâmetros de entrada da ação UpdateIndex
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
MaxMetaEntries | String | Não | Define o número máximo de linhas exclusivas em arquivos .data em um bucket, o que pode ajudar a reduzir o consumo de memória. |
FrozenTimePeriodInSecs | String | Não | Número de segundos após o qual os dados indexados são congelados. O padrão é 188697600 (seis anos). |
HomePath | String | Não | Um caminho absoluto que contém os buckets quentes e aquecidos para o índice. |
MinRawFileSyncSecs | String | Não | Especifique um número inteiro (ou disable ) para esse parâmetro. Esse parâmetro define
a frequência com que o splunkd força uma sincronização do sistema de arquivos ao compactar as fatias do diário. |
ProcessTrackerServiceInterval | String | Não | Especifica, em segundos, com que frequência o indexador verifica o status dos processos do SO filho que ele iniciou para saber se pode iniciar novos processos para solicitações em fila. Se definido como 0, o indexador verifica o status do processo filho a cada segundo. |
ServiceMetaPeriod | String | Não | Define a frequência (em segundos) com que os metadados são sincronizados com o disco. |
MaxHotSpanSecs | String | Não | Limite máximo do período de tempo de destino (em segundos) de buckets quentes ou mornos. |
QuarantinePastSecs | String | Não | Os eventos com carimbo de data/hora de quarantinePastSecs mais antigos que now são descartados no bucket de quarentena. |
ColdToFrozenDir | String | Não | Caminho de destino do arquivo congelado. Use como alternativa a um ColdToFrozenScript. |
ColdPath | String | Não | Um caminho absoluto que contém as colddbs para o índice. O caminho precisa ser legível e gravável. |
MaxHotIdleSecs | String | Não | Vida útil máxima, em segundos, de um bucket quente. |
WarmToColdScript | String | Não | Caminho para um script a ser executado ao mover dados de quente para frio. |
ColdToFrozenScript | String | Não | Caminho para o script de arquivamento. |
MaxHotBuckets | String | Não | Número máximo de buckets quentes que podem existir por índice. |
TstatsHomePath | String | Não | Local para armazenar dados de TSIDX de aceleração de datamodel para este índice. Se especificado, ele precisa ser definido em termos de uma definição de volume. O caminho precisa ser gravável |
RepFactor | String | Não | Controle de replicação de índice. Esse parâmetro se aplica apenas a nós pares no cluster.
|
MaxDataSize | String | Não | O tamanho máximo em MB que um DB quente precisa alcançar antes que um roll to warm seja acionado.
Especificar auto ou auto_high_volume faz com que o Splunk ajuste automaticamente esse parâmetro (recomendado). |
MaxBloomBackfillBucketAge | String | Não | Os valores válidos são: integer[m|s|h|d] se um bucket quente ou frio for mais antigo que a idade especificada, não crie nem reconstrua o bloomfilter dele. Especifique 0 para nunca recriar bloomfilters. |
BlockSignSize | String | Não | Controla quantos eventos compõem um bloco para assinaturas de bloco. Se esse valor for definido como 0, a assinatura de bloco será desativada para esse índice. O valor recomendado é 100. |
Nome | String | Sim | O nome do índice a ser criado |
MaxTotalDataSizeMB | String | Sim | O tamanho máximo de um índice (em MB). Se um índice crescer além do tamanho máximo, os dados mais antigos serão congelados. |
MaxWarmDBCount | String | Não | O número máximo de buckets aquecidos. Se esse número for excedido, os buckets quentes com o valor mais baixo para os tempos mais recentes serão movidos para a categoria "frio". |
RawChunkSizeBytes | String | Não | Tamanho não compactado desejado em bytes para a fatia bruta individual no diário de dados brutos do índice. 0 não é um valor válido. Se 0 for especificado, o rawChunkSizeBytes será definido como o valor padrão. |
DataType | String | Não | Especifica o tipo de índice |
MaxConcurrentOptimizes | String | Não | O número de processos de otimização simultâneos que podem ser executados em um bucket quente. |
ThrottleCheckPeriod | String | Não | Define a frequência (em segundos) com que o Splunk verifica a condição de limitação do índice. |
SyncMeta | String | Não | Quando verdadeiro, uma operação de sincronização é chamada antes que o descritor de arquivo seja fechado nas atualizações de arquivos de metadados. Essa funcionalidade melhora a integridade dos arquivos de metadados, principalmente em relação a falhas do sistema operacional ou da máquina. |
RotatePeriodInSecs | String | Não | Frequência (em segundos) de verificação se um novo bucket de acesso rápido precisa ser criado. Além disso, verifique com que frequência é preciso verificar se há buckets quentes ou frios que precisam ser rolados ou congelados. |
Parâmetros de saída da ação UpdateIndex
Essa ação retorna a mensagem de confirmação da ação "UpdateIndex".
Para saber como configurar a ação UpdateIndex
,
consulte Exemplos de ação.
Exemplos de ação
Exemplo: criar um evento HTTP
Este exemplo cria um evento HTTP.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
CreateHTTPEvent
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa CreateHTTPEvent
terá um valor semelhante a este:
[{ "Success": "Success" }]
Exemplo: criar um índice
Este exemplo cria um índice.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
CreateIndex
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "http_testing" }
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa CreateIndex
terá um valor semelhante a este:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Exemplo: criar uma pesquisa salva
Este exemplo cria uma pesquisa salva.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
CreateSavedSearch
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa CreateSavedSearch
terá um valor semelhante a este:
[{ "Success": true, "Message": null }]
Exemplo: atualizar uma pesquisa salva
Este exemplo atualiza uma pesquisa salva.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
UpdateSavedSearch
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa UpdateSavedSearch
terá um valor semelhante a este:
[{ "Success": true, "Message": null }]
Exemplo: excluir um índice
Este exemplo exclui um índice.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
DeleteIndex
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "g_http_testing" }
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa DeleteIndex
terá um valor semelhante a este:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemplo: atualizar um índice
Este exemplo atualiza um índice.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
UpdateIndex
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa UpdateIndex
terá um valor semelhante a este:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemplos de operação de entidade
Esta seção mostra como realizar algumas das operações de entidade neste conector.
Exemplo: listar todos os registros
Este exemplo lista todos os registros na entidade SearchJobs
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
List
e clique em Concluído. - Opcionalmente, na seção Entrada de tarefa da tarefa Conectores, é possível filtrar o conjunto de resultados especificando uma cláusula de filtro. Especifique o valor da cláusula de filtro sempre entre aspas simples (").
Exemplo: receber um registro de uma entidade
Este exemplo recebe um registro com o ID especificado da entidade SearchJobs
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Get
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em EntityId e
insira
1698309163.1300
no campo Valor padrão.Aqui,
1698309163.1300
é um ID de registro exclusivo na entidadeSearchJobs
.
Exemplo: criar um registro em uma entidade
Este exemplo cria um registro na entidade SearchJobs
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1699336785.1919" }
Exemplo: criar um registro em uma entidade
Este exemplo cria um registro na entidade DataModels
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
DataModels
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Se a integração for bem-sucedida, o campo
connectorOutputPayload
da tarefa do conector terá um valor semelhante a este:[{ "Id": "Test1" }]
Exemplo: excluir um registro de uma entidade
Este exemplo exclui o registro com o ID especificado na entidade DataModels
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
DataModels
na listaEntity
. - Selecione a operação
Delete
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em entityId e
digite
Test1
no campo Valor padrão.
Exemplo: atualizar um registro em uma entidade
Este exemplo atualiza um registro na entidade DataModels
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
DataModels
na listaEntity
. - Selecione a operação
Update
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Clique em entityId e insira
/servicesNS/nobody/search/datamodel/model/Testing
no campo Valor padrão.Se a integração for bem-sucedida, o campo
connectorOutputPayload
da tarefa do conector terá um valor semelhante a este:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Exemplo: fluxo de pesquisa usando o índice
Esta seção lista todo o fluxo de pesquisa usando um índice único e vários índices.
Criar uma pesquisa usando um índice único
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1726051471.76" }
Listar a operação usando o nome do índice usado na consulta de pesquisa
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
Index Name
na listaEntity
. - Selecione a operação
List
e clique em Concluído. - Na seção Entrada de tarefas da tarefa Conectores, é possível definir a filterClause, como Sid= '1726051471.76'.
Se a integração for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da tarefa Index Name
terá um valor semelhante a este:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Criar uma pesquisa usando vários índices
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1727261971.4007" }
Listar a operação usando o nome dos índices usados na consulta de pesquisa
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
Index Name
Nome na listaEntity
. - Selecione a operação
List
e clique em Concluído. - Na seção Entrada de tarefa da tarefa Conectores, é possível definir a filterClause, como Sid= '1727261971.4007'.
Se a integração for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da tarefa Index
terá um valor semelhante a este:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Exemplo: fluxo de pesquisa usando ReadJobResults
Esta seção lista todos os fluxos de pesquisa que usam um índice único e vários índices compatíveis com a conexão do Splunk. No momento,o tamanho máximo de payload para resultados de registro com suporte é de 150 MB.
Criar uma pesquisa com um índice único
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Este exemplo cria uma pesquisa. Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante ao seguinte:{ "Sid": "1732775755.24612" }
Para receber os resultados da pesquisa, execute a operação de criação na ação ReadJobResults. Para garantir que os resultados sejam filtrados com base no Sid, transmita o Sid como um parâmetro para a ação.
Receber registros de resultados usando a ação ReadJobResults
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
ReadJobResults
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "Sid": "1732775755.24612" }
Se a ação for bem-sucedida, o
parâmetro de resposta
connectorOutputPayload
da tarefa ReadJobResults
terá um valor semelhante a este:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Criar uma pesquisa com vários índices
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1732776556.24634" }
Para receber os resultados da pesquisa, execute a operação de criação na ação ReadJobResults. Para garantir que os resultados sejam filtrados com base no Sid, transmita o Sid como um parâmetro para a ação.
Resultados de registro usando a ação ReadJobResults
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
ReadJobResults
e clique em Concluído. - Na seção Data Mapper da tarefa Data Mapping, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "Sid": "1732776556.24634" }
- Para entender como criar e usar a tarefa "Connectors" na integração da Apigee, consulte Tarefa Connectors.
- Para entender como criar e usar a tarefa "Conectores" na Application Integration, consulte Tarefa "Conectores".
- Entenda como suspender e retomar uma conexão.
- Entenda como monitorar o uso do conector.
- Saiba como acessar os registros do conector.
Se a ação for bem-sucedida, o
parâmetro de resposta connectorOutputPayload
da tarefa ReadJobResults
terá um valor semelhante a este:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Usar o Terraform para criar conexões
Use o recurso do Terraform para criar uma nova conexão.Para saber como aplicar ou remover uma configuração do Terraform, consulte Comandos básicos do Terraform.
Para conferir um exemplo de modelo do Terraform para criação de conexão, consulte exemplo de modelo.
Ao criar essa conexão usando o Terraform, defina as seguintes variáveis no arquivo de configuração do Terraform:
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
nível de detalhes | STRING | Falso | O nível de detalhamento da conexão varia de 1 a 5. Um nível de detalhamento mais alto registra todos os detalhes de comunicação (solicitação,resposta e certificados SSL). |
proxy_enabled | BOOLEAN | Falso | Marque esta caixa de seleção para configurar um servidor proxy para a conexão. |
proxy_auth_scheme | ENUM | Falso | O tipo de autenticação a ser usado para autenticar no proxy ProxyServer. Os valores aceitos são: BASIC, DIGEST, NONE |
proxy_user | STRING | Falso | Um nome de usuário a ser usado para autenticar no proxy ProxyServer. |
proxy_password | SECRET | Falso | Uma senha a ser usada para autenticar no proxy ProxyServer. |
proxy_ssltype | ENUM | Falso | O tipo de SSL a ser usado ao se conectar ao proxy ProxyServer. Os valores aceitos são: AUTO, ALWAYS, NEVER, TUNNEL |
Usar a conexão do Splunk em uma integração
Depois de criar a conexão, ela fica disponível na integração da Apigee e Application Integration. É possível usar a conexão em uma integração pela tarefa de conectores.