Splunk

Le connecteur Splunk vous permet d'effectuer des opérations d'insertion, de suppression, de mise à jour et de lecture sur la base de données Splunk.

Avant de commencer

Avant d'utiliser le connecteur Splunk, effectuez les tâches suivantes :

  • Dans votre projet Google Cloud :
    • Vérifiez que la connectivité réseau est configurée. Pour en savoir plus sur les modèles de réseau, consultez la section Connectivité réseau.
    • Attribuez le rôle IAM roles/connectors.admin à l'utilisateur qui configure le connecteur.
    • Attribuez les rôles IAM suivants au compte de service que vous souhaitez utiliser pour le connecteur :
      • roles/secretmanager.viewer
      • roles/secretmanager.secretAccessor

      Un compte de service est un compte Google spécial destiné à représenter un utilisateur non humain qui doit s'authentifier et obtenir les autorisations permettant d'accéder aux données des API Google. Si vous ne possédez pas de compte de service, vous devez en créer un. Pour plus d'informations, consultez la section Créer un compte de service.

    • Activez les services suivants :
      • secretmanager.googleapis.com (API Secret Manager)
      • connectors.googleapis.com (API Connectors)

      Pour savoir comment activer des services, consultez la page Activer des services.

    Si ces services ou autorisations n'ont pas encore été activés pour votre projet, vous êtes invité à les activer lors de la configuration du connecteur.

Configurer le connecteur

Pour configurer le connecteur, vous devez créer une connexion à votre source de données (système backend). Une connexion est spécifique à une source de données. Cela signifie que si vous disposez de nombreuses sources de données, vous devez créer une connexion distincte pour chacune d'elles. Pour créer une connexion, procédez comme suit :

  1. Dans la console Cloud, accédez à la page Integration Connectors > Connections (Connecteurs d'intégration > Connexions), puis sélectionnez ou créez un projet Google Cloud.

    Accéder à la page "Connexions"

  2. Cliquez sur + CRÉER pour ouvrir la page Créer une connexion.
  3. Dans la section Emplacement, choisissez l'emplacement de la connexion.
    1. Région : sélectionnez un emplacement dans la liste déroulante.

      Pour obtenir la liste de toutes les régions disponibles, consultez la page Emplacements.

    2. Cliquez sur NEXT (Suivant).
  4. Dans la section Informations de connexion, procédez comme suit :
    1. Connecteur : sélectionnez Splunk dans la liste déroulante des connecteurs disponibles.
    2. Version du connecteur : sélectionnez la version du connecteur dans la liste déroulante des versions disponibles.
    3. Dans le champ Nom de connexion, saisissez un nom pour l'instance de connexion.

      Les noms de connexion doivent répondre aux critères suivants :

      • Les noms de connexion peuvent contenir des lettres, des chiffres ou des traits d'union.
      • Les lettres doivent être en minuscules.
      • Les noms de connexion doivent commencer par une lettre et se terminer par une lettre ou un chiffre.
      • Les noms de connexion ne peuvent pas dépasser 49 caractères.
    4. Saisissez éventuellement une Description pour l'instance de connexion.
    5. Vous pouvez également activer Cloud Logging, puis sélectionner un niveau de journalisation. Par défaut, le niveau de journalisation est défini sur Error.
    6. Compte de service : sélectionnez un compte de service disposant des rôles requis.
    7. Vous pouvez également configurer les paramètres du nœud de connexion :

      • Nombre minimal de nœuds : saisissez le nombre minimal de nœuds de connexion.
      • Nombre maximal de nœuds : saisissez le nombre maximal de nœuds de connexion.

      Un nœud est une unité (ou instance répliquée) de connexion qui traite des transactions. Pour traiter plus de transactions pour une connexion, plus de nœuds sont nécessaires. À l'inverse, moins de nœuds sont nécessaires pour traiter moins de transactions. Pour comprendre comment les nœuds affectent la tarification de votre connecteur, consultez la section Tarifs des nœuds de connexion. Si vous ne saisissez aucune valeur, le nombre minimal de nœuds est défini par défaut sur 2 (pour une meilleure disponibilité) et le nombre maximal sur 50.

    8. Vous pouvez également cliquer sur + AJOUTER UN LIBELLÉ pour ajouter un libellé à la connexion sous la forme d'une paire clé/valeur.
    9. Cliquez sur NEXT (Suivant).
  5. Dans la section Destinations, saisissez les informations concernant l'hôte distant (système backend) auquel vous souhaitez vous connecter.
    1. Type de destination : sélectionnez un type de destination.
      • Sélectionnez Adresse hôte dans la liste pour spécifier le nom d'hôte ou l'adresse IP de la destination.
      • Si vous souhaitez établir une connexion privée à vos systèmes backend, sélectionnez Rattachement du point de terminaison dans la liste, puis sélectionnez le rattachement du point de terminaison requis dans la liste Rattachement du point de terminaison.

      Si vous souhaitez établir une connexion publique à vos systèmes backend avec une sécurité supplémentaire, vous pouvez envisager de configurer des adresses IP sortantes statiques pour vos connexions, puis de configurer vos règles de pare-feu pour ajouter à la liste d'autorisation uniquement les adresses IP statiques spécifiques.

      Pour saisir d'autres destinations, cliquez sur + AJOUTER UNE DESTINATION.

    2. Cliquez sur NEXT (Suivant).
  6. Dans la section Authentification, saisissez les informations d'authentification.
    1. Sélectionnez un type d'authentification, puis saisissez les informations appropriées.

      Les types d'authentification suivants sont compatibles avec la connexion Splunk :

      • Nom d'utilisateur et mot de passe (authentification de base)
      • AccessToken
      • HTTPEventCollectorToken
    2. Pour comprendre comment configurer ces types d'authentification, consultez la section Configurer l'authentification.

    3. Cliquez sur NEXT (Suivant).
  7. Vérifiez vos informations de connexion et d'authentification.
  8. Cliquez sur Créer.

Configurer l'authentification

Saisissez les détails en fonction de l'authentification que vous souhaitez utiliser.

  • Nom d'utilisateur et mot de passe
    • Nom d'utilisateur : nom d'utilisateur Splunk à utiliser pour la connexion.
    • Mot de passe : secret Secret Manager contenant le mot de passe associé au nom d'utilisateur Splunk.
  • AccessToken : définissez cette valeur pour effectuer une authentification par jeton à l'aide de la propriété AccessToken.
  • HTTPEventCollectorToken : définissez cette valeur pour effectuer une authentification basée sur des jetons à l'aide de la propriété HTTPEventCollectorToken.

Exemples de configuration de connexion

Cette section présente des exemples de valeurs pour les différents champs que vous configurez lorsque vous créez la connexion Splunk.

Type de connexion du collecteur d'événements HTTP

Nom du champ Détails
Emplacement us-central1
Connecteur Splunk
Version du connecteur 1
Nom de connexion splunk-http-event-coll-conn
Activer Cloud Logging Non
Compte de service SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Nombre minimal de nœuds 2
Nombre maximal de nœuds 50
Activer SSL Oui
Connexion non sécurisée du magasin de confiance Oui
Type de destination(serveur) Adresse de l'hôte
Adresse de l'hôte 192.0.2.0
Port PORT
Authentification basée sur le jeton du collecteur d'événements HTTP Oui
HTTPEventCollectorToken HTTPEVENTCOLLECTOR_TOKEN
Version du secret 1

Pour savoir comment créer un jeton de collecteur d'événements HTTP, consultez la section Créer un collecteur d'événements HTTP.

Type de connexion SSL

Nom du champ Détails
Emplacement us-central1
Connecteur Splunk
Version du connecteur 1
Nom de connexion splunk-ssl-connection
Activer Cloud Logging Oui
Compte de service SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Niveau de verbosité 5
Nombre minimal de nœuds 2
Nombre maximal de nœuds 50
Activer SSL Oui
Connexion non sécurisée Oui
Type de destination(serveur) Adresse de l'hôte
Adresse de l'hôte https://192.0.2.0
Port PORT
Mot de passe utilisateur Oui
Nom d'utilisateur USER
Mot de passe MOT DE PASSE
Version du secret 1

Pour l'authentification de base, vous devez disposer du rôle "Utilisateur" ou "Utilisateur expérimenté". Pour savoir comment configurer un utilisateur expérimenté, consultez la section Configurer le rôle d'utilisateur expérimenté. Pour en savoir plus sur la définition de rôles dans Splunk, consultez Définir le rôle sur la plate-forme Splunk.

Entités, opérations et actions

Tous les connecteurs Integration Connectors fournissent une couche d'abstraction pour les objets de l'application connectée. Vous ne pouvez accéder aux objets d'une application que via cette abstraction. L'abstraction vous est présentée en tant qu'entités, opérations et actions.

  • Entité : une entité peut être considérée comme un objet ou un ensemble de propriétés dans l'application ou le service connecté. La définition d'une entité diffère d'un connecteur à l'autre. Par exemple, dans un connecteur de base de données, les tables sont les entités, dans un connecteur de serveur de fichiers, les dossiers sont les entités et, dans un connecteur de système de messagerie, les files d'attente sont les entités.

    Toutefois, il est possible qu'un connecteur ne soit pas compatible ou ne possède aucune entité. Dans ce cas, la liste Entities est vide.

  • Opération : une opération est l'activité que vous pouvez effectuer sur une entité. Vous pouvez effectuer l'une des opérations suivantes sur une entité :

    La sélection d'une entité dans la liste disponible génère une liste d'opérations disponibles pour l'entité. Pour obtenir une description détaillée des opérations, consultez les opérations d'entité de la tâche de connecteur. Toutefois, si un connecteur n'est pas compatible avec l'une des opérations d'entité, ces opérations non compatibles ne sont pas listées dans la liste Operations.

  • Action : une action est une fonction de première classe mise à la disposition de l'intégration via l'interface du connecteur. Une action vous permet de modifier une ou plusieurs entités, et varie d'un connecteur à l'autre. Normalement, une action comporte des paramètres d'entrée et un paramètre de sortie. Toutefois, il est possible qu'un connecteur ne prenne en charge aucune action, auquel cas la liste Actions est vide.

Limites du système

Le connecteur Splunk peut traiter cinq transactions par seconde et par nœud, et limite les transactions au-delà de cette limite. Toutefois, le nombre de transactions que ce connecteur peut traiter dépend également des contraintes imposées par l'instance Splunk. Par défaut, les connecteurs d'intégration allouent deux nœuds (pour une meilleure disponibilité) à une connexion.

Pour en savoir plus sur les limites applicables à Integration Connectors, consultez la section Limites.

Actions

Cette section répertorie les actions compatibles avec le connecteur. Pour savoir comment configurer les actions, consultez Exemples d'actions.

Action CreateHTTPEvent

Cette action vous permet d'envoyer des données et des événements d'application à un déploiement Splunk via les protocoles HTTP et HTTPS.

Paramètres d'entrée de l'action CreateHTTPEvent

Nom du paramètre Type de données Requis Description
EventContent Chaîne Oui Nom de la table ou de la vue.
ContentType Chaîne Non Type de contenu spécifié pour l'entrée EventContent. Les valeurs acceptées sont JSON et RAWTEXT.
ChannelGUID Integer Non GUID du canal utilisé pour l'événement. Vous devez spécifier cette valeur si ContentType est RAWTEXT.

Paramètres de sortie de l'action CreateHTTPEvent

Cette action renvoie l'état de réussite de l'événement créé.

Action CreateIndex

Cette action vous permet de créer des index.

Paramètres d'entrée de l'action CreateIndex

Nom du paramètre Type de données Requis Description
MaxMetaEntries Chaîne Non Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut contribuer à réduire la consommation de mémoire.
FrozenTimePeriodInSecs Chaîne Non Nombre de secondes après lesquelles les données indexées sont figées. La valeur par défaut est 188697600 (6 ans).
HomePath Chaîne Non Chemin absolu contenant les buckets "hot" et "warm" de l'index.
MinRawFileSyncSecs Chaîne Non Spécifiez un entier (ou disable) pour ce paramètre. Ce paramètre définit la fréquence à laquelle splunkd force une synchronisation du système de fichiers lors de la compression des tranches de journal.
ProcessTrackerServiceInterval Chaîne Non Indique, en secondes, la fréquence à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état du processus enfant toutes les secondes.
ServiceMetaPeriod Chaîne Non Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque.
MaxHotSpanSecs Chaîne Non Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes.
QuarantinePastSecs Chaîne Non Les événements dont le code temporel de quarantinePastSecs est antérieur à >now sont placés dans le bucket de quarantaine.
ColdToFrozenDir Chaîne Non Chemin d'accès de l'archive congelée. À utiliser à la place d'un script ColdToFrozen.
ColdPath Chaîne Non Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être lisible et accessible en écriture.
MaxHotIdleSecs Chaîne Non Durée de vie maximale, en secondes, d'un bucket chaud
WarmToColdScript Chaîne Non Chemin d'accès à un script à exécuter lors du transfert de données de l'état "chaud" à l'état "froid".
ColdToFrozenScript Chaîne Non Chemin d'accès au script d'archivage.
MaxHotBuckets Chaîne Non Nombre maximal de buckets chauds pouvant exister par index.
TstatsHomePath Chaîne Non Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet indice. S'il est spécifié, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture
RepFactor Chaîne Non Contrôle de la réplication des index. Ce paramètre ne s'applique qu'aux nœuds pairs du cluster.
  • auto : utilisez la valeur de configuration de la réplication de l'index principal.
  • 0 : désactivez la réplication pour cet indice.
MaxDataSize Chaîne Non Taille maximale en Mo qu'une base de données active peut atteindre avant qu'un basculement vers une base de données chaude ne soit déclenché. Splunk ajuste automatiquement ce paramètre si vous spécifiez auto ou auto_high_volume (recommandé).
MaxBloomBackfillBucketAge Chaîne Non Valeurs valides: entier[m|s|h|d] Si un bucket "warm" ou "cold" est plus ancien que l'âge spécifié, ne créez pas ni ne reconstruisez son bloomfilter. Spécifiez 0 pour ne jamais recréer de bloomfilters.
BlockSignSize Chaîne Non Contrôle le nombre d'événements qui constituent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet indice. La valeur recommandée est 100.
Nom Chaîne Oui Nom de l'index à créer
MaxTotalDataSizeMB Chaîne Non Taille maximale d'un indice (en Mo). Si la taille d'un indice dépasse la taille maximale, les données les plus anciennes sont figées.
MaxWarmDBCount Chaîne Non Nombre maximal de buckets chauds. Si ce nombre est dépassé, le ou les buckets chauds ayant la valeur la plus faible pour leur dernière heure sont déplacés vers la catégorie froide.
RawChunkSizeBytes Chaîne Non Taille non compressée cible en octets pour chaque tranche brute dans le journal de données brutes de l'index. 0 n'est pas une valeur valide. Si la valeur 0 est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut.
DataType Chaîne Non Indique le type d'index.
MaxConcurrentOptimizes Chaîne Non Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud.
ThrottleCheckPeriod Chaîne Non Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index.
SyncMeta Chaîne Non Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant la fermeture du descripteur de fichier lors des mises à jour de fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, en particulier en cas de plantage du système d'exploitation ou de défaillance de la machine.
RotatePeriodInSecs Chaîne Non Fréquence (en secondes) de vérification si un nouveau bucket chaud doit être créé. De plus, à quelle fréquence devez-vous vérifier si des bacs chauds/froids doivent être roulés/congelés ?

Paramètres de sortie de l'action CreateIndex

Cette action renvoie le message de confirmation de l'action CreateIndex.

Pour savoir comment configurer l'action CreateIndex, consultez la section Exemples d'actions.

Action CreateSavedSearch

Cette action vous permet d'enregistrer vos recherches

Paramètres d'entrée de l'action CreateSavedSearch

Nom du paramètre Type de données Requis Description
IsVisible Booléen Oui Indique si cette recherche enregistrée s'affiche dans la liste des recherches enregistrées visibles.
RealTimeSchedule Booléen Oui Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la recherche planifiée suivante en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de la dernière heure d'exécution de la recherche.
Rechercher Chaîne Oui Requête de recherche à enregistrer
Description Chaîne Non Description de cette recherche enregistrée
SchedulePriority Chaîne Oui Indique la priorité de planification d'une recherche spécifique
CronSchedule Chaîne Oui Calendrier cron pour exécuter cette recherche. Par exemple, */5 * * * * exécute la recherche toutes les cinq minutes.
Nom Chaîne Oui Nom de la recherche
UserContext Chaîne Oui Si un contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search), sinon le point de terminaison général, /services, est utilisé par défaut.
RunOnStartup Booléen Oui Indique si cette recherche s'exécute au démarrage. Si elle ne s'exécute pas au démarrage, la recherche s'exécute à l'heure suivante planifiée.
Désactivé Booléen Non Indique si cette recherche enregistrée est désactivée.
IsScheduled Booléen Oui Indique si cette recherche doit être exécutée selon un calendrier.

Paramètres de sortie de l'action CreateSavedSearch

Cette action renvoie le message de confirmation de l'action "CreateSavedSearch" (Créer une recherche enregistrée).

Pour savoir comment configurer l'action CreateSavedSearch, consultez la section Exemples d'actions.

Action "UpdateSavedSearch" (Mettre à jour la recherche enregistrée)

Cette action vous permet de modifier une recherche enregistrée.

Paramètres d'entrée de l'action UpdateSavedSearch

Nom du paramètre Type de données Requis Description
IsVisible Booléen Oui Indique si cette recherche enregistrée s'affiche dans la liste des recherches enregistrées visibles.
RealTimeSchedule Booléen Oui Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la prochaine recherche planifiée en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de la dernière heure d'exécution de la recherche.
Rechercher Chaîne Oui Requête de recherche à enregistrer
Description Chaîne Non Description de cette recherche enregistrée
SchedulePriority Chaîne Oui Indique la priorité de planification d'une recherche spécifique
CronSchedule Chaîne Oui Calendrier cron pour exécuter cette recherche. Par exemple, */5 * * * * permet d'exécuter la recherche toutes les cinq minutes.
Nom Chaîne Oui Nom de la recherche
UserContext Chaîne Oui Si un contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search). Sinon, le point de terminaison général, /services, est utilisé par défaut.
RunOnStartup Booléen Oui Indique si cette recherche s'exécute au démarrage. Si elle ne s'exécute pas au démarrage, la recherche s'exécute à l'heure suivante planifiée.
Désactivé Booléen Non Indique si cette recherche enregistrée est désactivée.
IsScheduled Booléen Oui Indique si cette recherche doit être exécutée selon un calendrier.

Paramètres de sortie de l'action UpdateSavedSearch

Cette action renvoie le message de confirmation de l'action "UpdateSavedSearch" (Mettre à jour la recherche enregistrée).

Pour savoir comment configurer l'action UpdateSavedSearch, consultez la section Exemples d'actions.

Action DeleteIndex

Cette action vous permet de supprimer un index.

Paramètres d'entrée de l'action DeleteIndex

Nom du paramètre Type de données Requis Description
Nom Chaîne Oui Nom de l'index à supprimer.

Paramètres de sortie de l'action DeleteIndex

Cette action renvoie le message de confirmation de l'action DeleteIndex.

Pour savoir comment configurer l'action DeleteIndex, consultez la section Exemples d'actions.

Action UpdateIndex

Cette action vous permet de modifier un index.

Paramètres d'entrée de l'action UpdateIndex

Nom du paramètre Type de données Requis Description
MaxMetaEntries Chaîne Non Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut contribuer à réduire la consommation de mémoire.
FrozenTimePeriodInSecs Chaîne Non Nombre de secondes après lesquelles les données indexées sont figées. La valeur par défaut est 188697600 (6 ans).
HomePath Chaîne Non Chemin absolu contenant les buckets "hot" et "warm" de l'index.
MinRawFileSyncSecs Chaîne Non Spécifiez un entier (ou disable) pour ce paramètre. Ce paramètre définit la fréquence à laquelle splunkd force une synchronisation du système de fichiers lors de la compression des tranches de journal.
ProcessTrackerServiceInterval Chaîne Non Indique, en secondes, la fréquence à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état du processus enfant toutes les secondes.
ServiceMetaPeriod Chaîne Non Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque.
MaxHotSpanSecs Chaîne Non Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes.
QuarantinePastSecs Chaîne Non Les événements dont le code temporel de quarantinePastSecs est antérieur à now sont placés dans le bucket de quarantaine.
ColdToFrozenDir Chaîne Non Chemin d'accès de l'archive congelée. À utiliser à la place d'un script ColdToFrozen.
ColdPath Chaîne Non Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être lisible et accessible en écriture.
MaxHotIdleSecs Chaîne Non Durée de vie maximale (en secondes) d'un bucket chaud.
WarmToColdScript Chaîne Non Chemin d'accès à un script à exécuter lors du transfert de données de l'état "chaud" à l'état "froid".
ColdToFrozenScript Chaîne Non Chemin d'accès au script d'archivage.
MaxHotBuckets Chaîne Non Nombre maximal de buckets chauds pouvant exister par index.
TstatsHomePath Chaîne Non Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet indice. Le cas échéant, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture
RepFactor Chaîne Non Contrôle de la réplication des index. Ce paramètre ne s'applique qu'aux nœuds pairs du cluster.
  • auto : utilisez la valeur de configuration de la réplication de l'index principal.
  • 0 : désactivez la réplication pour cet indice.
MaxDataSize Chaîne Non Taille maximale en Mo qu'une base de données active peut atteindre avant qu'un basculement vers une base de données chaude ne soit déclenché. Splunk ajuste automatiquement ce paramètre si vous spécifiez auto ou auto_high_volume (recommandé).
MaxBloomBackfillBucketAge Chaîne Non Les valeurs valides sont: entier[m|s|h|d] si un bucket chaud ou froid est plus ancien que l'âge spécifié, ne créez pas ni ne reconstruisez son bloomfilter. Spécifiez 0 pour ne jamais recréer de bloomfilters.
BlockSignSize Chaîne Non Contrôle le nombre d'événements qui constituent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet indice. La valeur recommandée est 100.
Nom Chaîne Oui Nom de l'index à créer
MaxTotalDataSizeMB Chaîne Oui Taille maximale d'un indice (en Mo). Si la taille d'un indice dépasse la taille maximale, les données les plus anciennes sont figées.
MaxWarmDBCount Chaîne Non Nombre maximal de buckets chauds. Si ce nombre est dépassé, le ou les buckets chauds ayant la valeur la plus faible pour leur dernière heure sont déplacés vers la catégorie froide.
RawChunkSizeBytes Chaîne Non Taille non compressée cible en octets pour chaque tranche brute dans le journal de données brutes de l'index. 0 n'est pas une valeur valide. Si la valeur 0 est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut.
DataType Chaîne Non Indique le type d'index.
MaxConcurrentOptimizes Chaîne Non Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud.
ThrottleCheckPeriod Chaîne Non Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index.
SyncMeta Chaîne Non Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant la fermeture du descripteur de fichier lors des mises à jour de fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, en particulier en cas de plantage du système d'exploitation ou de défaillance de la machine.
RotatePeriodInSecs Chaîne Non Fréquence (en secondes) de vérification si un nouveau bucket chaud doit être créé. Il doit également indiquer la fréquence à laquelle vérifier si des bacs chauds ou froids doivent être roulés ou congelés.

Paramètres de sortie de l'action UpdateIndex

Cette action renvoie le message de confirmation de l'action UpdateIndex.

Pour savoir comment configurer l'action UpdateIndex, consultez la section Exemples d'actions.

Exemples d'actions

Exemple : Créer un événement HTTP

Cet exemple crée un événement HTTP.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action CreateHTTPEvent, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "EventContent": "Testing Task",
    "ContentType": "RAWTEXT",
    "ChannelGUID": "ContentType=RAWTEXT"
    }
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche CreateHTTPEvent aura une valeur semblable à celle-ci:

    [{
    "Success": "Success"
    }] 
    

Exemple : Créer un index

Cet exemple crée un indice.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action CreateIndex, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "Name": "http_testing"
    }
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche CreateIndex aura une valeur semblable à celle-ci:

    [{
    "AssureUTF8": null,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": null,
    "ColdPath": null,
    "FrozenTimePeriodInSecs": null,
    "HomePath": null,
    "HomePathExpanded": null,
    "IndexThreads": null,
    "IsInternal": null,
    "MaxConcurrentOptimizes": null,
    "MaxDataSize": null,
    "MaxHotBuckets": null,
    "SuppressBannerList": null,
    "Sync": null,
    "SyncMeta": null,
    "ThawedPath": null,
    "ThawedPathExpanded": null,
    "TstatsHomePath": null,
    "WarmToColdScript": null,
    }]

Cet exemple crée une recherche enregistrée.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action CreateSavedSearch, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "Name": "test_created_g",
    "Search": "index=\"http_testing\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest",
    "UserContext": "nobody"
    }
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche CreateSavedSearch aura une valeur semblable à celle-ci:

    [{
    "Success": true,
    "Message": null
    }]

Cet exemple met à jour une recherche enregistrée.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action UpdateSavedSearch, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "Name": "test_created_g",
    "Search": "index=\"december_test_data\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest"
    }
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche UpdateSavedSearch aura une valeur semblable à celle-ci:

    [{
    "Success": true,
    "Message": null
    }]

Exemple : Supprimer un index

Cet exemple supprime un index.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action DeleteIndex, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "Name": "g_http_testing"
    }
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche DeleteIndex aura une valeur semblable à celle-ci:

    [{
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

Exemple : Modifier un index

Cet exemple met à jour un indice.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action UpdateIndex, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "MaxTotalDataSizeMB": "400000",
    "Name": "g_http_testing"
    }
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche UpdateIndex aura une valeur semblable à celle-ci:

    [{
    "AssureUTF8": false,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": "auto",
    "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb",
    "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb",
    "ColdToFrozenDir": "",
    "ColdToFrozenScript": "",
    "CurrentDBSizeMB": 1.0,
    "DefaultDatabase": "main",
    "EnableOnlineBucketRepair": true,
    "EnableRealtimeSearch": true,
    "FrozenTimePeriodInSecs": 1.886976E8,
    "HomePath": "$SPLUNK_DB\\g_http_testing\\db",
    "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db",
    "IndexThreads": "auto",
    "IsInternal": false,
    "LastInitTime": "2024-01-08 05:15:28.0",
    "MaxBloomBackfillBucketAge": "30d",
    "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb",
    "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb",
    "ThrottleCheckPeriod": 15.0,
    "TotalEventCount": 0.0,
    "TsidxDedupPostingsListMaxTermsLimit": 8388608.0,
    "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary",
    "WarmToColdScript": "",
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

Exemples d'opérations d'entité

Cette section explique comment effectuer certaines opérations d'entité dans ce connecteur.

Exemple : Répertorier tous les enregistrements

Cet exemple liste tous les enregistrements de l'entité SearchJobs.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération List, puis cliquez sur OK.
  4. Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), vous pouvez filtrer votre ensemble de résultats en spécifiant une clause de filtre. Spécifiez toujours la valeur de la clause de filtre entre guillemets simples (').

Exemple : Obtenir un enregistrement à partir d'une entité

Cet exemple récupère un enregistrement avec l'ID spécifié à partir de l'entité SearchJobs.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Get, puis cliquez sur OK.
  4. Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), cliquez sur EntityId, puis saisissez 1698309163.1300 dans le champ Default Value (Valeur par défaut).

    Ici, 1698309163.1300 est un ID d'enregistrement unique dans l'entité SearchJobs.

Exemple : Créer un enregistrement dans une entité

Cet exemple crée un enregistrement dans l'entité SearchJobs.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    { 
    "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex  \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" 
    } 
    

    Si l'intégration réussit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à celle-ci:

    {
    "Sid": "1699336785.1919"
    } 
    

Exemple : Créer un enregistrement dans une entité

Cet exemple crée un enregistrement dans l'entité DataModels.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez DataModels dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "Id": "Test1",
    "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\",
    \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\",
    \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false,
    \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\"
    ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }

    Si l'intégration aboutit, le champ connectorOutputPayload de votre tâche de connecteur aura une valeur semblable à celle-ci:

    [{
    "Id": "Test1"
    }]

Exemple : Supprimer un enregistrement d'une entité

Cet exemple supprime l'enregistrement associé à l'ID spécifié dans l'entité DataModels.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez DataModels dans la liste Entity.
  3. Sélectionnez l'opération Delete, puis cliquez sur OK.
  4. Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), cliquez sur entityId, puis saisissez Test1 dans le champ Default Value (Valeur par défaut).

Exemple : Mettre à jour un enregistrement dans une entité

Cet exemple met à jour un enregistrement dans l'entité DataModels.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez DataModels dans la liste Entity.
  3. Sélectionnez l'opération Update, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value:
    {
    "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\",
    \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60,
    \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false,
    \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3,
    \"allow_skew\":\"0\",\"schedule_priority\":\"default\",
    \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }
  5. Cliquez sur entityId, puis saisissez /servicesNS/nobody/search/datamodel/model/Testing dans le champ Default Value (Valeur par défaut).

    Si l'intégration aboutit, le champ connectorOutputPayload de votre tâche de connecteur aura une valeur semblable à celle-ci:

    [{
    "Id": "/servicesNS/nobody/search/datamodel/model/Testing"
    }]

Exemple : Flux de recherche à l'aide d'un index

Cette section liste l'ensemble du flux de recherche à l'aide d'un seul indice et de plusieurs indices.

Créer une recherche à l'aide d'un seul index

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    Si l'intégration réussit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à celle-ci:

    {
    "Sid": "1726051471.76"
    } 
    

Opération de liste à l'aide du nom de l'index utilisé dans la requête de recherche

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez Index Name dans la liste Entity.
  3. Sélectionnez l'opération List, puis cliquez sur OK.
  4. Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), vous pouvez définir la clause de filtre, par exemple Sid= '1726051471.76'.

  5. Si l'intégration réussit, le paramètre de réponse connectorOutputPayload de la tâche Index Name aura une valeur semblable à celle-ci:

    [{
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1726051471.76"
    }]
    

Créer une recherche à l'aide de plusieurs indices

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    Si l'intégration réussit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à celle-ci:

    {
    "Sid": "1727261971.4007"
    } 
    

Opération de liste à l'aide du nom des index utilisés dans la requête de recherche

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez le nom Index Name dans la liste Entity.
  3. Sélectionnez l'opération List, puis cliquez sur OK.
  4. Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), vous pouvez définir la clause de filtre, par exemple Sid= '1727261971.4007'.

  5. Si l'intégration réussit, le paramètre de réponse connectorOutputPayload de la tâche Index aura une valeur semblable à celle-ci:

     [{
      "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.727155516E9,
      "_kv": null,
      "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo",
      "_sourcetype": "Demo_Text",
      "_time": "2024-09-24 05:25:16.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "googlecloud-demo",
      "linecount": 3.0,
      "punct": null,
      "source": "Splunk_Demo.txt",
      "sourcetype": "Demo_Text",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }, {
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 1.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }]
    

Exemple : Flux de recherche à l'aide de ReadJobResults

Cette section liste tous les flux de recherche qui utilisent à la fois un seul indice et plusieurs indices compatibles avec la connexion Splunk. Actuellement,la taille de charge utile maximale pour les résultats de journal compatibles est de 150 Mo.

Créer une recherche avec un seul index

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    Cet exemple crée une recherche. Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à celle-ci:

    {
    "Sid": "1732775755.24612"
    } 
    

Pour obtenir les résultats de recherche, effectuez l'opération de création sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.

Obtenir des journaux de résultats à l'aide de l'action ReadJobResults

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action ReadJobResults, puis cliquez sur OK.
  3. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "Sid": "1732775755.24612"
    }
    
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche ReadJobResults aura une valeur semblable à celle-ci:

    [{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732775755.24612",
    "sid": "1732775755.24612"
    }]
    

Créer une recherche avec plusieurs indices

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    Si l'intégration réussit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à celle-ci:

    {
    "Sid": "1732776556.24634"
    } 
    

Pour obtenir les résultats de recherche, effectuez l'opération de création sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.

ResultsLogs à l'aide de l'action ReadJobResults

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action ReadJobResults, puis cliquez sur OK.
  3. Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "Sid": "1732776556.24634"
    }
    
  4. Si l'action réussit, le paramètre de réponse connectorOutputPayload de la tâche ReadJobResults aura une valeur semblable à celle-ci:

    [{
    "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1727155516",
    "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
    "_serial": "0",
    "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo",
    "_sourcetype": "Demo_Text",
    "_time": "2024-09-24T05:25:16.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "googlecloud-demo",
    "linecount": "3",
    "source": "Splunk_Demo.txt",
    "sourcetype": "Demo_Text",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    },{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    }]
    

    Utiliser Terraform pour créer des connexions

    Vous pouvez utiliser la ressource Terraform pour créer une connexion.

    Pour savoir comment appliquer ou supprimer une configuration Terraform, consultez la page Commandes Terraform de base.

    Pour consulter un exemple de modèle Terraform permettant de créer une connexion, consultez l'exemple de modèle.

    Lorsque vous créez cette connexion à l'aide de Terraform, vous devez définir les variables suivantes dans votre fichier de configuration Terraform:

    Nom du paramètre Type de données Requis Description
    verbosité STRING Faux Niveau de verbosité de la connexion, compris entre 1 et 5. Un niveau de verbosité plus élevé consigne tous les détails de la communication (requête,réponse et certificats SSL).
    proxy_enabled BOOLÉEN Faux Cochez cette case pour configurer un serveur proxy pour la connexion.
    proxy_auth_scheme ENUM Faux Type d'authentification à utiliser pour s'authentifier auprès du proxy ProxyServer. Les valeurs acceptées sont: BASIC, DIGEST et NONE.
    proxy_user STRING Faux Nom d'utilisateur à utiliser pour s'authentifier auprès du proxy ProxyServer.
    proxy_password SECRET Faux Mot de passe à utiliser pour s'authentifier auprès du proxy ProxyServer.
    proxy_ssltype ENUM Faux Type SSL à utiliser lors de la connexion au proxy ProxyServer. Les valeurs acceptées sont: AUTO, ALWAYS, NEVER et TUNNEL.

    Utiliser la connexion Splunk dans une intégration

    Une fois la connexion créée, elle devient disponible à la fois dans Apigee Integration et Application Integration. Vous pouvez utiliser la connexion dans une intégration via la tâche Connecteurs.

    • Pour savoir comment créer et utiliser la tâche Connecteurs dans Apigee Integration, consultez la section Tâche Connecteurs.
    • Pour savoir comment créer et utiliser la tâche Connecteurs dans Application Integration, consultez la section Tâche Connecteurs.

    Obtenir de l'aide auprès de la communauté Google Cloud

    Vous pouvez publier vos questions et discuter de ce connecteur sur les forums Cloud de la communauté Google Cloud.

    Étape suivante