Le modèle Pub/Sub vers Splunk est un pipeline de streaming qui lit les messages d'un abonnement Pub/Sub et écrit leur charge utile dans Splunk à l'aide de la solution HEC (HTTP Event Collector) de Splunk. Le cas d'utilisation le plus courant de ce modèle est l'exportation de journaux vers Splunk. Pour découvrir un exemple du workflow sous-jacent, consultez la section Déployer des exportations de journaux prêtes pour la production vers Splunk à l'aide de Dataflow.
Avant d'écrire vers Splunk, vous pouvez également appliquer une fonction JavaScript définie par l'utilisateur vers la charge utile du message. Tous les messages dont le traitement échoue sont transférés vers un sujet Pub/Sub non traité en vue d'opérations de dépannage supplémentaires et d'un nouveau traitement.
Pour ajouter une couche de protection à votre jeton HEC, vous pouvez également transmettre une clé Cloud KMS ainsi que le paramètre de jeton HEC encodé en base64 chiffré avec cette clé. Pour en savoir plus sur le chiffrement des paramètres du jeton HEC, consultez la page sur le point de terminaison du chiffrement de l'API Cloud KMS.
Conditions requises pour ce pipeline
- L'abonnement Pub/Sub source doit exister avant l'exécution du pipeline.
- Le sujet Pub/Sub non traité doit exister avant l'exécution du pipeline.
- Le point de terminaison Splunk HEC doit être accessible à partir du réseau de nœuds de calcul Dataflow.
- Le jeton de la solution HEC de Splunk doit être généré et disponible.
Paramètres de modèle
Paramètres obligatoires
- inputSubscription: abonnement Pub/Sub à partir duquel lire l'entrée. Exemple :
projects/your-project-id/subscriptions/your-subscription-name
- url: URL HEC Splunk. L'URL doit être routable depuis le VPC dans lequel le pipeline est exécuté Exemple :
https://splunk-hec-host:8088
- outputDeadletterTopic: sujet Pub/Sub auquel transférer les messages non distribuables. Exemple :
projects/<PROJECT_ID>/topics/<TOPIC_NAME>
Paramètres facultatifs
- token: jeton d'authentification HEC Splunk. Doit être spécifié si le paramètre
tokenSource
est défini surPLAINTEXT
ouKMS
. - batchCount: taille de lot pour l'envoi de plusieurs événements vers Splunk. La valeur par défaut est
1
(pas de traitement par lots). - disableCertificateValidation: désactive la validation du certificat SSL.
false
par défaut (validation activée). Si la valeur esttrue
, les certificats ne sont pas validés (tous les certificats sont approuvés) et le paramètrerootCaCertificatePath
est ignoré. - parallelism: nombre maximal de requêtes en parallèle. La valeur par défaut est
1
(aucun parallélisme). - includePubsubMessage: inclut le message Pub/Sub complet dans la charge utile. Valeur par défaut :
false
(seul l'élément de données est inclus dans la charge utile). - tokenKMSEncryptionKey: clé Cloud KMS à utiliser pour déchiffrer la chaîne du jeton HEC. Ce paramètre doit être fourni lorsque tokenSource est défini sur KMS. Si la clé Cloud KMS est fournie, la chaîne du jeton HEC doit être transmise sous forme chiffrée. Exemple :
projects/your-project-id/locations/global/keyRings/your-keyring/cryptoKeys/your-key-name
- tokenSecretId: ID du secret Secret Manager pour le jeton. Ce paramètre doit être fourni lorsque tokenSource est défini sur
SECRET_MANAGER
. Par exemple,projects/your-project-id/secrets/your-secret/versions/your-secret-version
. - tokenSource: source du jeton. Les valeurs suivantes sont autorisées :
PLAINTEXT
,KMS
etSECRET_MANAGER
. Vous devez fournir ce paramètre lorsque Secret Manager est utilisé. SitokenSource
est défini surKMS
,tokenKMSEncryptionKey
et untoken
chiffré doivent être spécifiés. SitokenSource
est défini surSECRET_MANAGER
,tokenSecretId
doit être fourni. SitokenSource
est défini surPLAINTEXT
,token
doit être fourni. - rootCaCertificatePath: URL complète du certificat CA racine dans Cloud Storage. Le certificat fourni dans Cloud Storage doit être encodé au format DER et peut être fourni en encodage binaire ou imprimable (base64). Si le certificat est fourni avec un encodage en base64, il doit être délimité par "------BEGIN CERTIFICATE-----" au début et par "-----END CERTIFICATE-----" à la fin. Si ce paramètre est fourni, ce fichier de certificat CA privé est extrait et ajouté au trust store du nœud de calcul Dataflow pour vérifier le certificat SSL du point de terminaison HEC de Splunk. Si ce paramètre n'est pas fourni, le trust store par défaut est utilisé. Exemple :
gs://mybucket/mycerts/privateCA.crt
- enableBatchLogs: spécifie si les journaux doivent être activés pour les lots écrits dans Splunk. Valeur par défaut :
true
. - enableGzipHttpCompression: indique si les requêtes HTTP envoyées à la solution HEC de Splunk doivent être compressées (codage de contenu gzip). Valeur par défaut :
true
. - javascriptTextTransformGcsPath: URI Cloud Storage du fichier .js qui définit la fonction JavaScript définie par l'utilisateur (UDF) à utiliser. Exemple :
gs://my-bucket/my-udfs/my_file.js
- javascriptTextTransformFunctionName: nom de la fonction JavaScript définie par lUDF;utilisateur à utiliser. Par exemple, si le code de votre fonction JavaScript est
myTransform(inJson) { /*...do stuff...*/ }
, le nom de la fonction estmyTransform
. Pour obtenir des exemples de fonctions JavaScript définies par l'utilisateur, consultez la section https://github.com/GoogleCloudPlatform/DataflowTemplates#udf-examples. - javascriptTextTransformReloadIntervalMinutes: définissez l'intervalle que les nœuds de calcul peuvent vérifier pour les modifications des UDF JavaScript pour actualiser les fichiers. La valeur par défaut est 0.
Fonction définie par l'utilisateur
Vous pouvez éventuellement étendre ce modèle en écrivant une fonction définie par l'utilisateur (UDF). Le modèle appelle l'UDF pour chaque élément d'entrée. Les charges utiles des éléments sont sérialisées sous forme de chaînes JSON. Pour en savoir plus, consultez la page Créer des fonctions définies par l'utilisateur pour les modèles Dataflow.
Spécification de la fonction
La spécification de l'UDF se présente comme suit :
- Entrée : champ de données du message Pub/Sub, sérialisé en tant que chaîne JSON.
- Sortie : données d'événement à envoyer au point de terminaison des événements HEC Splunk. Le résultat doit être une chaîne ou un objet JSON concaténé.
Exécuter le modèle
Console
- Accédez à la page Dataflow Créer un job à partir d'un modèle. Accéder à la page Créer un job à partir d'un modèle
- Dans le champ Nom du job, saisissez un nom de job unique.
- Facultatif : pour Point de terminaison régional, sélectionnez une valeur dans le menu déroulant. La région par défaut est
us-central1
.Pour obtenir la liste des régions dans lesquelles vous pouvez exécuter un job Dataflow, consultez la page Emplacements Dataflow.
- Dans le menu déroulant Modèle Dataflow, sélectionnez the Pub/Sub to Splunk template.
- Dans les champs fournis, saisissez vos valeurs de paramètres.
- Facultatif : Pour passer du traitement de type "exactement une fois" au mode de traitement en flux continu de type "au moins une fois", sélectionnez Au moins une fois.
- Cliquez sur Run Job (Exécuter la tâche).
gcloud
Dans le shell ou le terminal, exécutez le modèle :
gcloud dataflow jobs run JOB_NAME \ --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cloud_PubSub_to_Splunk \ --region REGION_NAME \ --staging-location STAGING_LOCATION \ --parameters \ inputSubscription=projects/PROJECT_ID/subscriptions/INPUT_SUBSCRIPTION_NAME,\ token=TOKEN,\ url=URL,\ outputDeadletterTopic=projects/PROJECT_ID/topics/DEADLETTER_TOPIC_NAME,\ javascriptTextTransformGcsPath=PATH_TO_JAVASCRIPT_UDF_FILE,\ javascriptTextTransformFunctionName=JAVASCRIPT_FUNCTION,\ batchCount=BATCH_COUNT,\ parallelism=PARALLELISM,\ disableCertificateValidation=DISABLE_VALIDATION,\ rootCaCertificatePath=ROOT_CA_CERTIFICATE_PATH
Remplacez les éléments suivants :
JOB_NAME
: nom de job unique de votre choixREGION_NAME
: région dans laquelle vous souhaitez déployer votre job Dataflow, par exempleus-central1
VERSION
: version du modèle que vous souhaitez utiliserVous pouvez utiliser les valeurs suivantes :
latest
pour utiliser la dernière version du modèle, disponible dans le dossier parent non daté du bucket gs://dataflow-templates-REGION_NAME/latest/- Le nom de la version, par exemple
2023-09-12-00_RC00
, pour utiliser une version spécifique du modèle, qui est imbriqué dans le dossier parent daté respectif dans le bucket : gs://dataflow-templates-REGION_NAME/
STAGING_LOCATION
: emplacement des fichiers locaux de préproduction (par exemple,gs://your-bucket/staging
)INPUT_SUBSCRIPTION_NAME
: nom de l'abonnement Pub/SubTOKEN
: jeton HTTP Event Collector de SplunkURL
: chemin d'URL du jeton HTTP Event Collector de Splunk (par exemple,https://splunk-hec-host:8088
)DEADLETTER_TOPIC_NAME
: nom du sujet Pub/SubJAVASCRIPT_FUNCTION
: Nom de la fonction JavaScript définie par l'utilisateur que vous souhaitez utiliser.Par exemple, si le code de votre fonction JavaScript est
myTransform(inJson) { /*...do stuff...*/ }
, le nom de la fonction estmyTransform
. Pour obtenir des exemples de fonctions JavaScript définies par l'utilisateur, consultez la page Exemples de fonctions définies par l'utilisateur.PATH_TO_JAVASCRIPT_UDF_FILE
: URI Cloud Storage du fichier.js
contenant la fonction JavaScript définie par l'utilisateur que vous souhaitez utiliser (par exemple,gs://my-bucket/my-udfs/my_file.js
).BATCH_COUNT
: taille de lot à utiliser pour envoyer plusieurs événements vers SplunkPARALLELISM
: nombre de requêtes parallèles à utiliser pour envoyer des événements vers SplunkDISABLE_VALIDATION
:true
si vous souhaitez désactiver la validation du certificat SSLROOT_CA_CERTIFICATE_PATH
: chemin d'accès au certificat racine de l'autorité de certification dans Cloud Storage (par exemple,gs://your-bucket/privateCA.crt
)
API
Pour exécuter le modèle à l'aide de l'API REST, envoyez une requête HTTP POST. Pour en savoir plus sur l'API, ses autorisations et leurs champs d'application, consultez la section projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_PubSub_to_Splunk { "jobName": "JOB_NAME", "environment": { "ipConfiguration": "WORKER_IP_UNSPECIFIED", "additionalExperiments": [] }, "parameters": { "inputSubscription": "projects/PROJECT_ID/subscriptions/INPUT_SUBSCRIPTION_NAME", "token": "TOKEN", "url": "URL", "outputDeadletterTopic": "projects/PROJECT_ID/topics/DEADLETTER_TOPIC_NAME", "javascriptTextTransformGcsPath": "PATH_TO_JAVASCRIPT_UDF_FILE", "javascriptTextTransformFunctionName": "JAVASCRIPT_FUNCTION", "batchCount": "BATCH_COUNT", "parallelism": "PARALLELISM", "disableCertificateValidation": "DISABLE_VALIDATION", "rootCaCertificatePath": "ROOT_CA_CERTIFICATE_PATH" } }
Remplacez les éléments suivants :
PROJECT_ID
: ID du projet Google Cloud dans lequel vous souhaitez exécuter le job DataflowJOB_NAME
: nom de job unique de votre choixLOCATION
: région dans laquelle vous souhaitez déployer votre job Dataflow, par exempleus-central1
VERSION
: version du modèle que vous souhaitez utiliserVous pouvez utiliser les valeurs suivantes :
latest
pour utiliser la dernière version du modèle, disponible dans le dossier parent non daté du bucket gs://dataflow-templates-REGION_NAME/latest/- Le nom de la version, par exemple
2023-09-12-00_RC00
, pour utiliser une version spécifique du modèle, qui est imbriqué dans le dossier parent daté respectif dans le bucket : gs://dataflow-templates-REGION_NAME/
STAGING_LOCATION
: emplacement des fichiers locaux de préproduction (par exemple,gs://your-bucket/staging
)INPUT_SUBSCRIPTION_NAME
: nom de l'abonnement Pub/SubTOKEN
: jeton HTTP Event Collector de SplunkURL
: chemin d'URL du jeton HTTP Event Collector de Splunk (par exemple,https://splunk-hec-host:8088
)DEADLETTER_TOPIC_NAME
: nom du sujet Pub/SubJAVASCRIPT_FUNCTION
: Nom de la fonction JavaScript définie par l'utilisateur que vous souhaitez utiliser.Par exemple, si le code de votre fonction JavaScript est
myTransform(inJson) { /*...do stuff...*/ }
, le nom de la fonction estmyTransform
. Pour obtenir des exemples de fonctions JavaScript définies par l'utilisateur, consultez la page Exemples de fonctions définies par l'utilisateur.PATH_TO_JAVASCRIPT_UDF_FILE
: URI Cloud Storage du fichier.js
contenant la fonction JavaScript définie par l'utilisateur que vous souhaitez utiliser (par exemple,gs://my-bucket/my-udfs/my_file.js
).BATCH_COUNT
: taille de lot à utiliser pour envoyer plusieurs événements vers SplunkPARALLELISM
: nombre de requêtes parallèles à utiliser pour envoyer des événements vers SplunkDISABLE_VALIDATION
:true
si vous souhaitez désactiver la validation du certificat SSLROOT_CA_CERTIFICATE_PATH
: chemin d'accès au certificat racine de l'autorité de certification dans Cloud Storage (par exemple,gs://your-bucket/privateCA.crt
)
Étape suivante
- Apprenez-en plus sur les modèles Dataflow.
- Consultez la liste des modèles fournis par Google.