Splunk
Le connecteur Splunk vous permet d'effectuer des opérations d'insertion, de suppression, de mise à jour et de lecture sur la base de données Splunk.
Avant de commencer
Avant d'utiliser le connecteur Splunk, effectuez les tâches suivantes :
- Dans votre projet Google Cloud :
- Vérifiez que la connectivité réseau est configurée. Pour en savoir plus sur les modèles de réseau, consultez la section Connectivité réseau.
- Attribuez le rôle IAM roles/connectors.admin à l'utilisateur qui configure le connecteur.
- Attribuez les rôles IAM suivants au compte de service que vous souhaitez utiliser pour le connecteur :
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Un compte de service est un compte Google spécial destiné à représenter un utilisateur non humain qui doit s'authentifier et obtenir les autorisations permettant d'accéder aux données des API Google. Si vous ne possédez pas de compte de service, vous devez en créer un. Pour plus d'informations, consultez la section Créer un compte de service.
- Activez les services suivants :
secretmanager.googleapis.com
(API Secret Manager)connectors.googleapis.com
(API Connectors)
Pour savoir comment activer des services, consultez la page Activer des services.
Si ces services ou autorisations n'ont pas encore été activés pour votre projet, vous êtes invité à les activer lors de la configuration du connecteur.
Configurer le connecteur
Pour configurer le connecteur, vous devez créer une connexion à votre source de données (système backend). Une connexion est spécifique à une source de données. Cela signifie que si vous disposez de nombreuses sources de données, vous devez créer une connexion distincte pour chacune d'elles. Pour créer une connexion, procédez comme suit :
- Dans la console Cloud, accédez à la page Integration Connectors > Connections (Connecteurs d'intégration > Connexions), puis sélectionnez ou créez un projet Google Cloud.
- Cliquez sur + CRÉER pour ouvrir la page Créer une connexion.
- Dans la section Emplacement, choisissez l'emplacement de la connexion.
- Région : sélectionnez un emplacement dans la liste déroulante.
Pour obtenir la liste de toutes les régions disponibles, consultez la page Emplacements.
- Cliquez sur NEXT (Suivant).
- Région : sélectionnez un emplacement dans la liste déroulante.
- Dans la section Informations de connexion, procédez comme suit :
- Connecteur : sélectionnez Splunk dans la liste déroulante des connecteurs disponibles.
- Version du connecteur : sélectionnez la version du connecteur dans la liste déroulante des versions disponibles.
- Dans le champ Nom de connexion, saisissez un nom pour l'instance de connexion.
Les noms de connexion doivent répondre aux critères suivants :
- Les noms de connexion peuvent contenir des lettres, des chiffres ou des traits d'union.
- Les lettres doivent être en minuscules.
- Les noms de connexion doivent commencer par une lettre et se terminer par une lettre ou un chiffre.
- Les noms de connexion ne peuvent pas dépasser 49 caractères.
- Saisissez éventuellement une Description pour l'instance de connexion.
- Vous pouvez également activer Cloud Logging, puis sélectionner un niveau de journalisation. Par défaut, le niveau de journalisation est défini sur
Error
. - Compte de service : sélectionnez un compte de service disposant des rôles requis.
- Vous pouvez également configurer les paramètres du nœud de connexion :
- Nombre minimal de nœuds : saisissez le nombre minimal de nœuds de connexion.
- Nombre maximal de nœuds : saisissez le nombre maximal de nœuds de connexion.
Un nœud est une unité (ou instance répliquée) de connexion qui traite des transactions. Pour traiter plus de transactions pour une connexion, plus de nœuds sont nécessaires. À l'inverse, moins de nœuds sont nécessaires pour traiter moins de transactions. Pour comprendre comment les nœuds affectent la tarification de votre connecteur, consultez la section Tarifs des nœuds de connexion. Si vous ne saisissez aucune valeur, le nombre minimal de nœuds est défini par défaut sur 2 (pour une meilleure disponibilité) et le nombre maximal sur 50.
- Vous pouvez également cliquer sur + AJOUTER UN LIBELLÉ pour ajouter un libellé à la connexion sous la forme d'une paire clé/valeur.
- Cliquez sur NEXT (Suivant).
- Dans la section Destinations, saisissez les informations concernant l'hôte distant (système backend) auquel vous souhaitez vous connecter.
- Type de destination : sélectionnez un type de destination.
- Sélectionnez Adresse hôte dans la liste pour spécifier le nom d'hôte ou l'adresse IP de la destination.
- Si vous souhaitez établir une connexion privée à vos systèmes backend, sélectionnez Rattachement du point de terminaison dans la liste, puis sélectionnez le rattachement du point de terminaison requis dans la liste Rattachement du point de terminaison.
Si vous souhaitez établir une connexion publique à vos systèmes backend avec une sécurité supplémentaire, vous pouvez envisager de configurer des adresses IP sortantes statiques pour vos connexions, puis de configurer vos règles de pare-feu pour ajouter à la liste d'autorisation uniquement les adresses IP statiques spécifiques.
Pour saisir d'autres destinations, cliquez sur + AJOUTER UNE DESTINATION.
- Cliquez sur NEXT (Suivant).
- Type de destination : sélectionnez un type de destination.
-
Dans la section Authentification, saisissez les informations d'authentification.
- Sélectionnez un type d'authentification, puis saisissez les informations appropriées.
Les types d'authentification suivants sont compatibles avec la connexion Splunk :
- Nom d'utilisateur et mot de passe (authentification de base)
- AccessToken
- HTTPEventCollectorToken
- Cliquez sur NEXT (Suivant).
Pour comprendre comment configurer ces types d'authentification, consultez la section Configurer l'authentification.
- Sélectionnez un type d'authentification, puis saisissez les informations appropriées.
- Vérifiez vos informations de connexion et d'authentification.
- Cliquez sur Créer.
Configurer l'authentification
Saisissez les détails en fonction de l'authentification que vous souhaitez utiliser.
-
Nom d'utilisateur et mot de passe
- Nom d'utilisateur : nom d'utilisateur Splunk à utiliser pour la connexion.
- Mot de passe : secret Secret Manager contenant le mot de passe associé au nom d'utilisateur Splunk.
-
AccessToken : définissez cette valeur pour effectuer une authentification par jeton à l'aide de la propriété
AccessToken
. -
HTTPEventCollectorToken : définissez cette valeur pour effectuer une authentification basée sur des jetons à l'aide de la propriété
HTTPEventCollectorToken
.
Exemples de configuration de connexion
Cette section présente des exemples de valeurs pour les différents champs que vous configurez lorsque vous créez la connexion Splunk.
Type de connexion du collecteur d'événements HTTP
Nom du champ | Détails |
---|---|
Emplacement | us-central1 |
Connecteur | Splunk |
Version du connecteur | 1 |
Nom de connexion | splunk-http-event-coll-conn |
Activer Cloud Logging | Non |
Compte de service | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Nombre minimal de nœuds | 2 |
Nombre maximal de nœuds | 50 |
Activer SSL | Oui |
Connexion non sécurisée du magasin de confiance | Oui |
Type de destination(serveur) | Adresse de l'hôte |
Adresse de l'hôte | 192.0.2.0 |
Port | PORT |
Authentification basée sur le jeton du collecteur d'événements HTTP | Oui |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Version du secret | 1 |
Pour savoir comment créer un jeton de collecteur d'événements HTTP, consultez la section Créer un collecteur d'événements HTTP.
Type de connexion SSL
Nom du champ | Détails |
---|---|
Emplacement | us-central1 |
Connecteur | Splunk |
Version du connecteur | 1 |
Nom de connexion | splunk-ssl-connection |
Activer Cloud Logging | Oui |
Compte de service | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Niveau de verbosité | 5 |
Nombre minimal de nœuds | 2 |
Nombre maximal de nœuds | 50 |
Activer SSL | Oui |
Connexion non sécurisée | Oui |
Type de destination(serveur) | Adresse de l'hôte |
Adresse de l'hôte | https://192.0.2.0 |
Port | PORT |
Mot de passe utilisateur | Oui |
Nom d'utilisateur | USER |
Mot de passe | MOT DE PASSE |
Version du secret | 1 |
Pour l'authentification de base, vous devez disposer du rôle "Utilisateur" ou "Utilisateur expérimenté". Pour savoir comment configurer un utilisateur expérimenté, consultez la section Configurer le rôle d'utilisateur expérimenté. Pour en savoir plus sur la définition de rôles dans Splunk, consultez Définir le rôle sur la plate-forme Splunk.
Entités, opérations et actions
Tous les connecteurs Integration Connectors fournissent une couche d'abstraction pour les objets de l'application connectée. Vous ne pouvez accéder aux objets d'une application que via cette abstraction. L'abstraction vous est présentée en tant qu'entités, opérations et actions.
- Entité : une entité peut être considérée comme un objet ou un ensemble de propriétés dans l'application ou le service connecté. La définition d'une entité diffère d'un connecteur à l'autre. Par exemple, dans un connecteur de base de données, les tables sont les entités, dans un connecteur de serveur de fichiers, les dossiers sont les entités et, dans un connecteur de système de messagerie, les files d'attente sont les entités.
Toutefois, il est possible qu'un connecteur ne soit pas compatible ou ne possède aucune entité. Dans ce cas, la liste
Entities
est vide. - Opération : une opération est l'activité que vous pouvez effectuer sur une entité. Vous pouvez effectuer l'une des opérations suivantes sur une entité :
La sélection d'une entité dans la liste disponible génère une liste d'opérations disponibles pour l'entité. Pour obtenir une description détaillée des opérations, consultez les opérations d'entité de la tâche de connecteur. Toutefois, si un connecteur n'est pas compatible avec l'une des opérations d'entité, ces opérations non compatibles ne sont pas listées dans la liste
Operations
. - Action : une action est une fonction de première classe mise à la disposition de l'intégration via l'interface du connecteur. Une action vous permet de modifier une ou plusieurs entités, et varie d'un connecteur à l'autre. Normalement, une action comporte des paramètres d'entrée et un paramètre de sortie. Toutefois, il est possible qu'un connecteur ne prenne en charge aucune action, auquel cas la liste
Actions
est vide.
Limites du système
Le connecteur Splunk peut traiter cinq transactions par seconde et par nœud, et limite les transactions au-delà de cette limite. Toutefois, le nombre de transactions que ce connecteur peut traiter dépend également des contraintes imposées par l'instance Splunk. Par défaut, les connecteurs d'intégration allouent deux nœuds (pour une meilleure disponibilité) à une connexion.
Pour en savoir plus sur les limites applicables à Integration Connectors, consultez la section Limites.
Actions
Cette section répertorie les actions compatibles avec le connecteur. Pour savoir comment configurer les actions, consultez Exemples d'actions.
Action CreateHTTPEvent
Cette action vous permet d'envoyer des données et des événements d'application à un déploiement Splunk via les protocoles HTTP et HTTPS.
Paramètres d'entrée de l'action CreateHTTPEvent
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
EventContent | Chaîne | Oui | Nom de la table ou de la vue. |
ContentType | Chaîne | Non | Type de contenu spécifié pour l'entrée EventContent . Les valeurs acceptées sont JSON et RAWTEXT . |
ChannelGUID | Integer | Non | GUID du canal utilisé pour l'événement. Vous devez spécifier cette valeur si ContentType est RAWTEXT . |
Paramètres de sortie de l'action CreateHTTPEvent
Cette action renvoie l'état de réussite de l'événement créé.
Action CreateIndex
Cette action vous permet de créer des index.
Paramètres d'entrée de l'action CreateIndex
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
MaxMetaEntries | Chaîne | Non | Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut contribuer à réduire la consommation de mémoire. |
FrozenTimePeriodInSecs | Chaîne | Non | Nombre de secondes après lesquelles les données indexées sont figées. La valeur par défaut est 188697600 (6 ans). |
HomePath | Chaîne | Non | Chemin absolu contenant les buckets "hot" et "warm" de l'index. |
MinRawFileSyncSecs | Chaîne | Non | Spécifiez un entier (ou disable ) pour ce paramètre. Ce paramètre définit la fréquence à laquelle splunkd force une synchronisation du système de fichiers lors de la compression des tranches de journal. |
ProcessTrackerServiceInterval | Chaîne | Non | Indique, en secondes, la fréquence à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état du processus enfant toutes les secondes. |
ServiceMetaPeriod | Chaîne | Non | Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque. |
MaxHotSpanSecs | Chaîne | Non | Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes. |
QuarantinePastSecs | Chaîne | Non | Les événements dont le code temporel de quarantinePastSecs est antérieur à >now sont placés dans le bucket de quarantaine. |
ColdToFrozenDir | Chaîne | Non | Chemin d'accès de l'archive congelée. À utiliser à la place d'un script ColdToFrozen. |
ColdPath | Chaîne | Non | Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être lisible et accessible en écriture. |
MaxHotIdleSecs | Chaîne | Non | Durée de vie maximale, en secondes, d'un bucket chaud |
WarmToColdScript | Chaîne | Non | Chemin d'accès à un script à exécuter lors du transfert de données de l'état "chaud" à l'état "froid". |
ColdToFrozenScript | Chaîne | Non | Chemin d'accès au script d'archivage. |
MaxHotBuckets | Chaîne | Non | Nombre maximal de buckets chauds pouvant exister par index. |
TstatsHomePath | Chaîne | Non | Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet indice. S'il est spécifié, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture |
RepFactor | Chaîne | Non | Contrôle de la réplication des index. Ce paramètre ne s'applique qu'aux nœuds pairs du cluster.
|
MaxDataSize | Chaîne | Non | Taille maximale en Mo qu'une base de données active peut atteindre avant qu'un basculement vers une base de données chaude ne soit déclenché.
Splunk ajuste automatiquement ce paramètre si vous spécifiez auto ou auto_high_volume (recommandé). |
MaxBloomBackfillBucketAge | Chaîne | Non | Valeurs valides: entier[m|s|h|d] Si un bucket "warm" ou "cold" est plus ancien que l'âge spécifié, ne créez pas ni ne reconstruisez son bloomfilter. Spécifiez 0 pour ne jamais recréer de bloomfilters. |
BlockSignSize | Chaîne | Non | Contrôle le nombre d'événements qui constituent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet indice. La valeur recommandée est 100. |
Nom | Chaîne | Oui | Nom de l'index à créer |
MaxTotalDataSizeMB | Chaîne | Non | Taille maximale d'un indice (en Mo). Si la taille d'un indice dépasse la taille maximale, les données les plus anciennes sont figées. |
MaxWarmDBCount | Chaîne | Non | Nombre maximal de buckets chauds. Si ce nombre est dépassé, le ou les buckets chauds ayant la valeur la plus faible pour leur dernière heure sont déplacés vers la catégorie froide. |
RawChunkSizeBytes | Chaîne | Non | Taille non compressée cible en octets pour chaque tranche brute dans le journal de données brutes de l'index. 0 n'est pas une valeur valide. Si la valeur 0 est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut. |
DataType | Chaîne | Non | Indique le type d'index. |
MaxConcurrentOptimizes | Chaîne | Non | Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud. |
ThrottleCheckPeriod | Chaîne | Non | Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index. |
SyncMeta | Chaîne | Non | Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant la fermeture du descripteur de fichier lors des mises à jour de fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, en particulier en cas de plantage du système d'exploitation ou de défaillance de la machine. |
RotatePeriodInSecs | Chaîne | Non | Fréquence (en secondes) de vérification si un nouveau bucket chaud doit être créé. De plus, à quelle fréquence devez-vous vérifier si des bacs chauds/froids doivent être roulés/congelés ? |
Paramètres de sortie de l'action CreateIndex
Cette action renvoie le message de confirmation de l'action CreateIndex.
Pour savoir comment configurer l'action CreateIndex
, consultez la section Exemples d'actions.
Action CreateSavedSearch
Cette action vous permet d'enregistrer vos recherches
Paramètres d'entrée de l'action CreateSavedSearch
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
IsVisible | Booléen | Oui | Indique si cette recherche enregistrée s'affiche dans la liste des recherches enregistrées visibles. |
RealTimeSchedule | Booléen | Oui | Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la recherche planifiée suivante en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de la dernière heure d'exécution de la recherche. |
Rechercher | Chaîne | Oui | Requête de recherche à enregistrer |
Description | Chaîne | Non | Description de cette recherche enregistrée |
SchedulePriority | Chaîne | Oui | Indique la priorité de planification d'une recherche spécifique |
CronSchedule | Chaîne | Oui | Calendrier cron pour exécuter cette recherche. Par exemple, */5 * * * * exécute la recherche toutes les cinq minutes. |
Nom | Chaîne | Oui | Nom de la recherche |
UserContext | Chaîne | Oui | Si un contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search), sinon le point de terminaison général, /services , est utilisé par défaut. |
RunOnStartup | Booléen | Oui | Indique si cette recherche s'exécute au démarrage. Si elle ne s'exécute pas au démarrage, la recherche s'exécute à l'heure suivante planifiée. |
Désactivé | Booléen | Non | Indique si cette recherche enregistrée est désactivée. |
IsScheduled | Booléen | Oui | Indique si cette recherche doit être exécutée selon un calendrier. |
Paramètres de sortie de l'action CreateSavedSearch
Cette action renvoie le message de confirmation de l'action "CreateSavedSearch" (Créer une recherche enregistrée).
Pour savoir comment configurer l'action CreateSavedSearch
, consultez la section Exemples d'actions.
Action "UpdateSavedSearch" (Mettre à jour la recherche enregistrée)
Cette action vous permet de modifier une recherche enregistrée.
Paramètres d'entrée de l'action UpdateSavedSearch
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
IsVisible | Booléen | Oui | Indique si cette recherche enregistrée s'affiche dans la liste des recherches enregistrées visibles. |
RealTimeSchedule | Booléen | Oui | Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la prochaine recherche planifiée en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de la dernière heure d'exécution de la recherche. |
Rechercher | Chaîne | Oui | Requête de recherche à enregistrer |
Description | Chaîne | Non | Description de cette recherche enregistrée |
SchedulePriority | Chaîne | Oui | Indique la priorité de planification d'une recherche spécifique |
CronSchedule | Chaîne | Oui | Calendrier cron pour exécuter cette recherche. Par exemple, */5 * * * * permet d'exécuter la recherche toutes les cinq minutes. |
Nom | Chaîne | Oui | Nom de la recherche |
UserContext | Chaîne | Oui | Si un contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search). Sinon, le point de terminaison général, /services , est utilisé par défaut. |
RunOnStartup | Booléen | Oui | Indique si cette recherche s'exécute au démarrage. Si elle ne s'exécute pas au démarrage, la recherche s'exécute à l'heure suivante planifiée. |
Désactivé | Booléen | Non | Indique si cette recherche enregistrée est désactivée. |
IsScheduled | Booléen | Oui | Indique si cette recherche doit être exécutée selon un calendrier. |
Paramètres de sortie de l'action UpdateSavedSearch
Cette action renvoie le message de confirmation de l'action "UpdateSavedSearch" (Mettre à jour la recherche enregistrée).
Pour savoir comment configurer l'action UpdateSavedSearch
, consultez la section Exemples d'actions.
Action DeleteIndex
Cette action vous permet de supprimer un index.
Paramètres d'entrée de l'action DeleteIndex
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
Nom | Chaîne | Oui | Nom de l'index à supprimer. |
Paramètres de sortie de l'action DeleteIndex
Cette action renvoie le message de confirmation de l'action DeleteIndex.
Pour savoir comment configurer l'action DeleteIndex
, consultez la section Exemples d'actions.
Action UpdateIndex
Cette action vous permet de modifier un index.
Paramètres d'entrée de l'action UpdateIndex
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
MaxMetaEntries | Chaîne | Non | Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut contribuer à réduire la consommation de mémoire. |
FrozenTimePeriodInSecs | Chaîne | Non | Nombre de secondes après lesquelles les données indexées sont figées. La valeur par défaut est 188697600 (6 ans). |
HomePath | Chaîne | Non | Chemin absolu contenant les buckets "hot" et "warm" de l'index. |
MinRawFileSyncSecs | Chaîne | Non | Spécifiez un entier (ou disable ) pour ce paramètre. Ce paramètre définit la fréquence à laquelle splunkd force une synchronisation du système de fichiers lors de la compression des tranches de journal. |
ProcessTrackerServiceInterval | Chaîne | Non | Indique, en secondes, la fréquence à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état du processus enfant toutes les secondes. |
ServiceMetaPeriod | Chaîne | Non | Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque. |
MaxHotSpanSecs | Chaîne | Non | Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes. |
QuarantinePastSecs | Chaîne | Non | Les événements dont le code temporel de quarantinePastSecs est antérieur à now sont placés dans le bucket de quarantaine. |
ColdToFrozenDir | Chaîne | Non | Chemin d'accès de l'archive congelée. À utiliser à la place d'un script ColdToFrozen. |
ColdPath | Chaîne | Non | Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être lisible et accessible en écriture. |
MaxHotIdleSecs | Chaîne | Non | Durée de vie maximale (en secondes) d'un bucket chaud. |
WarmToColdScript | Chaîne | Non | Chemin d'accès à un script à exécuter lors du transfert de données de l'état "chaud" à l'état "froid". |
ColdToFrozenScript | Chaîne | Non | Chemin d'accès au script d'archivage. |
MaxHotBuckets | Chaîne | Non | Nombre maximal de buckets chauds pouvant exister par index. |
TstatsHomePath | Chaîne | Non | Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet indice. Le cas échéant, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture |
RepFactor | Chaîne | Non | Contrôle de la réplication des index. Ce paramètre ne s'applique qu'aux nœuds pairs du cluster.
|
MaxDataSize | Chaîne | Non | Taille maximale en Mo qu'une base de données active peut atteindre avant qu'un basculement vers une base de données chaude ne soit déclenché.
Splunk ajuste automatiquement ce paramètre si vous spécifiez auto ou auto_high_volume (recommandé). |
MaxBloomBackfillBucketAge | Chaîne | Non | Les valeurs valides sont: entier[m|s|h|d] si un bucket chaud ou froid est plus ancien que l'âge spécifié, ne créez pas ni ne reconstruisez son bloomfilter. Spécifiez 0 pour ne jamais recréer de bloomfilters. |
BlockSignSize | Chaîne | Non | Contrôle le nombre d'événements qui constituent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet indice. La valeur recommandée est 100. |
Nom | Chaîne | Oui | Nom de l'index à créer |
MaxTotalDataSizeMB | Chaîne | Oui | Taille maximale d'un indice (en Mo). Si la taille d'un indice dépasse la taille maximale, les données les plus anciennes sont figées. |
MaxWarmDBCount | Chaîne | Non | Nombre maximal de buckets chauds. Si ce nombre est dépassé, le ou les buckets chauds ayant la valeur la plus faible pour leur dernière heure sont déplacés vers la catégorie froide. |
RawChunkSizeBytes | Chaîne | Non | Taille non compressée cible en octets pour chaque tranche brute dans le journal de données brutes de l'index. 0 n'est pas une valeur valide. Si la valeur 0 est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut. |
DataType | Chaîne | Non | Indique le type d'index. |
MaxConcurrentOptimizes | Chaîne | Non | Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud. |
ThrottleCheckPeriod | Chaîne | Non | Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index. |
SyncMeta | Chaîne | Non | Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant la fermeture du descripteur de fichier lors des mises à jour de fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, en particulier en cas de plantage du système d'exploitation ou de défaillance de la machine. |
RotatePeriodInSecs | Chaîne | Non | Fréquence (en secondes) de vérification si un nouveau bucket chaud doit être créé. Il doit également indiquer la fréquence à laquelle vérifier si des bacs chauds ou froids doivent être roulés ou congelés. |
Paramètres de sortie de l'action UpdateIndex
Cette action renvoie le message de confirmation de l'action UpdateIndex.
Pour savoir comment configurer l'action UpdateIndex
, consultez la section Exemples d'actions.
Exemples d'actions
Exemple : Créer un événement HTTP
Cet exemple crée un événement HTTP.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
CreateHTTPEvent
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche CreateHTTPEvent
aura une valeur semblable à celle-ci:
[{ "Success": "Success" }]
Exemple : Créer un index
Cet exemple crée un indice.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
CreateIndex
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "http_testing" }
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche CreateIndex
aura une valeur semblable à celle-ci:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Exemple : Créer une recherche enregistrée
Cet exemple crée une recherche enregistrée.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
CreateSavedSearch
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche CreateSavedSearch
aura une valeur semblable à celle-ci:
[{ "Success": true, "Message": null }]
Exemple : Mettre à jour une recherche enregistrée
Cet exemple met à jour une recherche enregistrée.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
UpdateSavedSearch
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche UpdateSavedSearch
aura une valeur semblable à celle-ci:
[{ "Success": true, "Message": null }]
Exemple : Supprimer un index
Cet exemple supprime un index.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
DeleteIndex
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "g_http_testing" }
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche DeleteIndex
aura une valeur semblable à celle-ci:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemple : Modifier un index
Cet exemple met à jour un indice.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
UpdateIndex
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche UpdateIndex
aura une valeur semblable à celle-ci:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemples d'opérations d'entité
Cette section explique comment effectuer certaines opérations d'entité dans ce connecteur.
Exemple : Répertorier tous les enregistrements
Cet exemple liste tous les enregistrements de l'entité SearchJobs
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
List
, puis cliquez sur OK. - Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), vous pouvez filtrer votre ensemble de résultats en spécifiant une clause de filtre. Spécifiez toujours la valeur de la clause de filtre entre guillemets simples (').
Exemple : Obtenir un enregistrement à partir d'une entité
Cet exemple récupère un enregistrement avec l'ID spécifié à partir de l'entité SearchJobs
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Get
, puis cliquez sur OK. - Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), cliquez sur EntityId, puis saisissez
1698309163.1300
dans le champ Default Value (Valeur par défaut).Ici,
1698309163.1300
est un ID d'enregistrement unique dans l'entitéSearchJobs
.
Exemple : Créer un enregistrement dans une entité
Cet exemple crée un enregistrement dans l'entité SearchJobs
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Si l'intégration réussit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à celle-ci:{ "Sid": "1699336785.1919" }
Exemple : Créer un enregistrement dans une entité
Cet exemple crée un enregistrement dans l'entité DataModels
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
DataModels
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Si l'intégration aboutit, le champ
connectorOutputPayload
de votre tâche de connecteur aura une valeur semblable à celle-ci:[{ "Id": "Test1" }]
Exemple : Supprimer un enregistrement d'une entité
Cet exemple supprime l'enregistrement associé à l'ID spécifié dans l'entité DataModels
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
DataModels
dans la listeEntity
. - Sélectionnez l'opération
Delete
, puis cliquez sur OK. - Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), cliquez sur entityId, puis saisissez
Test1
dans le champ Default Value (Valeur par défaut).
Exemple : Mettre à jour un enregistrement dans une entité
Cet exemple met à jour un enregistrement dans l'entité DataModels
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
DataModels
dans la listeEntity
. - Sélectionnez l'opération
Update
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Cliquez sur entityId, puis saisissez
/servicesNS/nobody/search/datamodel/model/Testing
dans le champ Default Value (Valeur par défaut).Si l'intégration aboutit, le champ
connectorOutputPayload
de votre tâche de connecteur aura une valeur semblable à celle-ci:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Exemple : Flux de recherche à l'aide d'un index
Cette section liste l'ensemble du flux de recherche à l'aide d'un seul indice et de plusieurs indices.
Créer une recherche à l'aide d'un seul index
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Si l'intégration réussit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à celle-ci:{ "Sid": "1726051471.76" }
Opération de liste à l'aide du nom de l'index utilisé dans la requête de recherche
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
Index Name
dans la listeEntity
. - Sélectionnez l'opération
List
, puis cliquez sur OK. - Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), vous pouvez définir la clause de filtre, par exemple Sid= '1726051471.76'.
Si l'intégration réussit, le paramètre de réponse connectorOutputPayload
de la tâche Index Name
aura une valeur semblable à celle-ci:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Créer une recherche à l'aide de plusieurs indices
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Si l'intégration réussit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à celle-ci:{ "Sid": "1727261971.4007" }
Opération de liste à l'aide du nom des index utilisés dans la requête de recherche
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez le nom
Index Name
dans la listeEntity
. - Sélectionnez l'opération
List
, puis cliquez sur OK. - Dans la section Task Input (Entrée de la tâche) de la tâche Connectors (Connecteurs), vous pouvez définir la clause de filtre, par exemple Sid= '1727261971.4007'.
Si l'intégration réussit, le paramètre de réponse connectorOutputPayload
de la tâche Index
aura une valeur semblable à celle-ci:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Exemple : Flux de recherche à l'aide de ReadJobResults
Cette section liste tous les flux de recherche qui utilisent à la fois un seul indice et plusieurs indices compatibles avec la connexion Splunk. Actuellement,la taille de charge utile maximale pour les résultats de journal compatibles est de 150 Mo.
Créer une recherche avec un seul index
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Cet exemple crée une recherche. Si l'intégration aboutit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à celle-ci:{ "Sid": "1732775755.24612" }
Pour obtenir les résultats de recherche, effectuez l'opération de création sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.
Obtenir des journaux de résultats à l'aide de l'action ReadJobResults
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
ReadJobResults
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "Sid": "1732775755.24612" }
Si l'action réussit, le paramètre de réponse
connectorOutputPayload
de la tâche ReadJobResults
aura une valeur semblable à celle-ci:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Créer une recherche avec plusieurs indices
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Si l'intégration réussit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à celle-ci:{ "Sid": "1732776556.24634" }
Pour obtenir les résultats de recherche, effectuez l'opération de création sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.
ResultsLogs à l'aide de l'action ReadJobResults
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
ReadJobResults
, puis cliquez sur OK. - Dans la section Data Mapper (Mappeur de données) de la tâche Data Mapping (Mappage de données), cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "Sid": "1732776556.24634" }
- Pour savoir comment créer et utiliser la tâche Connecteurs dans Apigee Integration, consultez la section Tâche Connecteurs.
- Pour savoir comment créer et utiliser la tâche Connecteurs dans Application Integration, consultez la section Tâche Connecteurs.
- Découvrez comment suspendre et réactiver une connexion.
- Découvrez comment surveiller l'utilisation des connecteurs.
- Découvrez comment afficher les journaux de connecteur.
Si l'action réussit, le paramètre de réponse connectorOutputPayload
de la tâche ReadJobResults
aura une valeur semblable à celle-ci:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Utiliser Terraform pour créer des connexions
Vous pouvez utiliser la ressource Terraform pour créer une connexion.Pour savoir comment appliquer ou supprimer une configuration Terraform, consultez la page Commandes Terraform de base.
Pour consulter un exemple de modèle Terraform permettant de créer une connexion, consultez l'exemple de modèle.
Lorsque vous créez cette connexion à l'aide de Terraform, vous devez définir les variables suivantes dans votre fichier de configuration Terraform:
Nom du paramètre | Type de données | Requis | Description |
---|---|---|---|
verbosité | STRING | Faux | Niveau de verbosité de la connexion, compris entre 1 et 5. Un niveau de verbosité plus élevé consigne tous les détails de la communication (requête,réponse et certificats SSL). |
proxy_enabled | BOOLÉEN | Faux | Cochez cette case pour configurer un serveur proxy pour la connexion. |
proxy_auth_scheme | ENUM | Faux | Type d'authentification à utiliser pour s'authentifier auprès du proxy ProxyServer. Les valeurs acceptées sont: BASIC, DIGEST et NONE. |
proxy_user | STRING | Faux | Nom d'utilisateur à utiliser pour s'authentifier auprès du proxy ProxyServer. |
proxy_password | SECRET | Faux | Mot de passe à utiliser pour s'authentifier auprès du proxy ProxyServer. |
proxy_ssltype | ENUM | Faux | Type SSL à utiliser lors de la connexion au proxy ProxyServer. Les valeurs acceptées sont: AUTO, ALWAYS, NEVER et TUNNEL. |
Utiliser la connexion Splunk dans une intégration
Une fois la connexion créée, elle devient disponible à la fois dans Apigee Integration et Application Integration. Vous pouvez utiliser la connexion dans une intégration via la tâche Connecteurs.