Cette page a été traduite par l'API Cloud Translation.
Switch to English

Utiliser des journaux exportés

Cette page vous explique comment rechercher et utiliser des entrées de journal que vous exportez à partir de Cloud Logging.

L'exportation d'entrées de journal implique l'écriture d'un filtre qui sélectionne les entrées de journal que vous souhaitez exporter et choisissez une destination parmi les options suivantes:

  • Cloud Storage: fichiers JSON stockés dans des buckets Cloud Storage
  • BigQuery: tables créées dans des ensembles de données BigQuery.
  • Pub/Sub: messages JSON envoyés à des sujets Pub/Sub. Accepte les intégrations tierces, telles que Splunk, avec Logging.
  • Un autre projet Google Cloud: entrées de journaux conservées dans des buckets de journaux Cloud Logging.

Le filtre et la destination sont consignés dans un objet appelé récepteur. Les récepteurs peuvent être créés dans des projets, des organisations, des dossiers et des comptes de facturation Google Cloud.

Pour en savoir plus sur l'exportation de journaux à l'aide de Cloud Logging, consultez la page Présentation des exportations de journaux.

Exporter les journaux

Pour savoir comment créer des récepteurs dans Cloud Logging afin d'exporter vos journaux, reportez-vous aux pages suivantes:

Cloud Storage

Pour afficher les journaux exportés dans Cloud Storage, procédez comme suit :

  1. Accédez au navigateur Cloud Storage dans Cloud Console :

    Accéder au navigateur Cloud Storage

  2. Sélectionnez le bucket Cloud Storage que vous utilisez pour l'exportation des journaux.

Pour en savoir plus sur l'organisation des journaux dans le bucket Cloud Storage, consultez la section Organisation de Cloud Storage de cette page.

Disponibilité des journaux exportés

S'il n'existe aucun journal exporté, vérifiez les métriques système liées à l'exportation. Ces dernières peuvent vous indiquer le nombre d'entrées de journal exportées ou supprimées en raison d'erreurs. Si elles indiquent qu'aucune entrée de journal n'a été exportée, vérifiez votre filtre pour vous assurer que les entrées correspondant à votre filtre ont récemment été reçues dans Logging:

Accéder au routeur de journaux

Les entrées de journal sont enregistrées toutes les heures et sous forme de lots dans des buckets Cloud Storage. L'affichage des premières entrées peut prendre 2 à 3 heures.

Organisation des journaux exportés

Lorsque vous exportez des journaux vers un bucket Cloud Storage, Logging crée un ensemble de fichiers dans le bucket.

Les fichiers sont organisés en hiérarchies de répertoires classées par type de journal et par date. Type de journal, appelé[LOG_ID] dans la sectionLogEntry un nom simple, par exemplesyslog ou un nom composé, commeappengine.googleapis.com/request_log s'affiche en haut de l'écran. Si ces journaux sont stockés dans un bucket appelé my-gcs-bucket, les répertoires sont alors nommés comme dans l'exemple suivant:

my-gcs-bucket/syslog/YYYY/MM/DD/
my-gcs-bucket/appengine.googleapis.com/request_log/YYYY/MM/DD/

Un bucket Cloud Storage peut contenir des journaux provenant de plusieurs types de ressources. La taille de chaque fichier est d'environ 3,5 Gio.

Logging ne garantit pas la déduplication des entrées de journal des récepteurs contenant des requêtes identiques ou se chevauchant. Les entrées de journal de ces récepteurs peuvent être écrites plusieurs fois dans un bucket Cloud Storage.

Les répertoires feuilles (DD/) comportent plusieurs fichiers conservant chacun les entrées de journal exportées pendant une période spécifiée dans le nom de fichier. Les fichiers sont partitionnés et leur nom se termine par un numéro de partition, Sn ou An (n = 0, 1, 2, etc.). Par exemple, voici deux fichiers qui pourraient être stockés dans le répertoire my-gcs-bucket/syslog/2015/01/13/ :

08:00:00_08:59:59_S0.json
08:00:00_08:59:59_S1.json

Ces deux fichiers contiennent les entrées de journal de syslog pour toutes les instances entre 8 et 9 min 59 UTC (fuseau horaire UTC). Les horodatages d'entrée de journal utilisent l'heure UTC (temps universel coordonné).

Les entrées de journal qui arrivent avec un receiveTimestamp dans la fenêtre alignée de 60 minutes de leur timestamp sont écrites dans des fichiers partitions principaux. Par exemple, une entrée de journal avec un timestamp de Atos et un receiveTimestamp de 08:10:00 sont stockées dans le fichier de partition principal.

Ces fichiers incluent un segment principal numéroté dans le suffixe : _Sn.json.

Les entrées de journal qui arrivent avec un timestamp dans une autre fenêtre alignée de 60 minutes que leur receiveTimestamp sont écrites dans des fichiers addendum partition. Par exemple, une entrée de journal avec un timestamp de Atos et un receiveTimestamp de 09:10:00 sont stockées dans un fichier de partition d'avenant.

Ces fichiers incluent une partition numérotée d'avenant avec le suffixe _An.json:Unix_timestamp.

Par exemple, une entrée de journal dont le champ timestamp est compris entre Atos et 08:59:59, mais où receiveTimestamp dans une autre fenêtre alignée de 60 minutes est écrit dans un fichier. avec le suffixe _An.json:Unix_timestamp, où l'horodatage Unix identifie l'heure à laquelle le fichier a été exporté vers Cloud Storage. Si une entrée de journal a un timestamp de 080:00:00 et un receiveTimestamp de 09:10:00, et a été exportée le 25 mars 2021 à 23h15, le fichier avenant à ce cas :

08:00:00_08:59:59_A0.json:1616681700

Pour obtenir toutes les entrées de journal, vous devez consulter l'ensemble des partitions pour chaque période (dans le cas présent, les partitions de fichiers 0 et 1). Le nombre de partitions de fichiers rédigées peut varier pour chaque période en fonction du volume d'entrées de journal.

Dans les fichiers partitionnés individuels, les entrées de journal sont stockées sous la forme d'une liste d'objets LogEntry. Pour obtenir un exemple d'entrée syslog, consultez la section Objets d'entrées de journal ci-après.

Notez que l'ordre de tri des entrées de journal dans les fichiers n'est ni uniforme, ni garanti.

Filtres

Pour obtenir des exemples de filtres d'exportation de journaux vers Cloud Storage, consultez la page Exemples de requêtes.

BigQuery

Pour afficher vos journaux exportés dans BigQuery, procédez comme suit :

  1. Accédez à la page BigQuery dans Cloud Console:

    Accéder à BigQuery

  2. Sélectionnez l'ensemble de données servant de destination à votre récepteur.

  3. Sélectionnez une table de l'ensemble de données. Les entrées de journal sont visibles dans l'onglet Détails. Vous pouvez également interroger la table pour qu'elle renvoie vos données.

Pour en savoir plus sur l'organisation des tables, consultez la section Organisation des tables. Pour découvrir comment les champs des entrées de journal exportées sont nommés, consultez la section Schéma BigQuery des journaux exportés.

Disponibilité des journaux exportés

S'il n'existe aucun journal exporté, vérifiez les métriques système liées à l'exportation. Ces dernières peuvent vous indiquer le nombre d'entrées de journal exportées ou supprimées en raison d'erreurs. Si elles indiquent qu'aucune entrée de journal n'a été exportée, vérifiez votre filtre pour vous assurer que les entrées correspondant à votre filtre ont récemment été reçues dans Logging:

Accéder au routeur de journaux

Lorsque Logging exporte les entrées de journal vers BigQuery et qu'une table est créée, les premières entrées peuvent mettre quelques minutes à apparaître dans la nouvelle table. Les entrées de journal suivantes apparaissent généralement dans la minute qui suit. Pour en savoir plus, consultez la section Organisation des tables ci-dessous.

Organisation des tables

Lorsque vous exportez des journaux vers un ensemble de données BigQuery, Logging crée des tables datées qui conservent les entrées de journal exportées. Le nom de ces tables est basé sur le nom des entrées de journal et sur leur horodatage1. Le tableau suivant vous explique la façon dont les noms des journaux et les horodatages sont mappés au nom des tables :

Nom du journal Horodatage d'entrée de journal1 Nom de la table BigQuery
syslog 2017-05-23T18:19:22.135Z syslog_20170523
apache-access 2017-01-01T00:00:00.000Z apache_access_20170101
compute.googleapis.com/activity_log 2017-12-31T23:59:59.999Z compute_googleapis_com_activity_log_20171231

1 Les horodatages d'entrée de journal utilisent l'heure UTC (temps universel coordonné).

Schémas et champs

Les schémas de table BigQuery pour les journaux exportés se basent sur la structure du type LogEntry et sur le contenu des charges utiles des journaux. Vous pouvez afficher le schéma d'une table en sélectionnant une comportant des entrées de journal exportées dans l'UI Web de BigQuery.

Le schéma de table BigQuery utilisé pour représenter les charges utiles d'entrée de journal complexes peut être source de confusion. Dans le cas des journaux d'audit exportés, certaines règles de dénomination spéciales sont utilisées. Pour en savoir plus, consultez la page Schéma BigQuery des journaux exportés.

Requêtes

Pour obtenir des exemples de requêtes d'exportation de journaux vers BigQuery, consultez la page Exemples de requêtes.

Pour en savoir plus sur la syntaxe des requêtes BigQuery, consultez la documentation de référence sur les requêtes. Les fonctions de caractères génériques de table sont particulièrement utiles et offrent la possibilité d'exécuter des requêtes sur plusieurs tables. L'opérateur FLATTEN est également très pratique, car il permet d'afficher des données à partir de champs répétés.

Exemple de requête concernant les journaux Compute Engine

La requête BigQuery suivante récupère les entrées de journal de plusieurs jours et de différents types de journaux :

  • La requête recherche les trois derniers jours des journaux syslog et apache-access. Elle a été exécutée le 23 février 2015 et couvre toutes les entrées de journal reçues les 21 et 22 février, ainsi que les entrées reçues le 23 février jusqu'à la création de la requête.

  • La requête récupère les résultats d'une seule instance de Compute Engine : 1554300700000000000.

SELECT
  timestamp AS Time,
  logName as Log,
  textPayload AS Message
FROM
  (TABLE_DATE_RANGE(my_bq_dataset.syslog_,
    DATE_ADD(CURRENT_TIMESTAMP(), -2, 'DAY'), CURRENT_TIMESTAMP())),
  (TABLE_DATE_RANGE(my_bq_dataset.apache_access_,
    DATE_ADD(CURRENT_TIMESTAMP(), -2, 'DAY'), CURRENT_TIMESTAMP()))
WHERE
  resource.type == 'gce_instance'
  AND resource.labels.instance_id == '1554300700000000000'
ORDER BY time;

Voici quelques exemples de lignes de sortie :

Row | Time                    | Log                                         | Message
--- | ----------------------- | ------------------------------------------- | ----------------------------------------------------------------------------------------------------------------
 5  | 2015-02-21 03:40:14 UTC | projects/project-id/logs/syslog             | Feb 21 03:40:14 my-gce-instance collectd[24281]: uc_update: Value too old: name = 15543007601548826368/df-tmpfs/df_complex-used; value time = 1424490014.269; last cache update = 1424490014.269;
 6  | 2015-02-21 04:17:01 UTC | projects/project-id/logs/syslog             | Feb 21 04:17:01 my-gce-instance /USR/SBIN/CRON[8082]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
 7  | 2015-02-21 04:49:58 UTC | projects/project-id/logs/apache-access      | 128.61.240.66 - - [21/Feb/2015:04:49:58 +0000] "GET / HTTP/1.0" 200 536 "-" "masscan/1.0 (https://github.com/robertdavidgraham/masscan)"
 8  | 2015-02-21 05:17:01 UTC | projects/project-id/logs/syslog             | Feb 21 05:17:01 my-gce-instance /USR/SBIN/CRON[9104]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
 9  | 2015-02-21 05:30:50 UTC | projects/project-id/log/syslogapache-access | 92.254.50.61 - - [21/Feb/2015:05:30:50 +0000] "GET /tmUnblock.cgi HTTP/1.1" 400 541 "-" "-"

Exemple de requête concernant les journaux App Engine

La requête BigQuery suivante récupère les requêtes App Engine du mois dernier qui n'ont pas abouti :

SELECT
  timestamp AS Time,
  protoPayload.host AS Host,
  protoPayload.status AS Status,
  protoPayload.resource AS Path
FROM
  (TABLE_DATE_RANGE(my_bq_dataset.appengine_googleapis_com_request_log_,
    DATE_ADD(CURRENT_TIMESTAMP(), -1, 'MONTH'), CURRENT_TIMESTAMP()))
WHERE
  protoPayload.status != 200
ORDER BY time

Voici une partie des résultats :

Row | Time                    | Host                                  | Status | Path
--- | ----------------------- | ------------------------------------- | ------ | ------
 6  | 2015-02-12 19:35:02 UTC | default.my-gcp-project-id.appspot.com |    404 | /foo?thud=3
 7  | 2015-02-12 19:35:21 UTC | default.my-gcp-project-id.appspot.com |    404 | /foo
 8  | 2015-02-16 20:17:19 UTC | my-gcp-project-id.appspot.com         |    404 | /favicon.ico
 9  | 2015-02-16 20:17:34 UTC | my-gcp-project-id.appspot.com         |    404 | /foo?thud=%22what???%22

Pub/Sub

Nous vous recommandons d'utiliser Pub/Sub pour intégrer des journaux Cloud Logging à des logiciels tiers.

Les journaux exportés vers Pub/Sub sont généralement disponibles en quelques secondes, avec 99 % des journaux disponibles en moins de 60 secondes.

Pour afficher vos journaux exportés au fur et à mesure qu'ils sont diffusés via Pub/Sub, procédez comme suit :

  1. Accédez à la page Pub/Sub dans Cloud Console :

    Accéder à Pub/Sub

  2. Recherchez ou créez un abonnement au sujet utilisé pour l'exportation des journaux, puis extrayez une entrée de journal. Vous devrez peut-être attendre la publication d'une nouvelle entrée.

Pour en savoir plus sur l'organisation des journaux dans Pub/Sub, consultez la section Organisation des journaux exportés sur cette page.

Disponibilité des journaux exportés

S'il n'existe aucun journal exporté, vérifiez les métriques système liées à l'exportation. Ces dernières peuvent vous indiquer le nombre d'entrées de journal exportées ou supprimées en raison d'erreurs. Si elles indiquent qu'aucune entrée de journal n'a été exportée, vérifiez votre filtre pour vous assurer que les entrées correspondant à votre filtre ont récemment été reçues dans Logging:

Accéder au routeur de journaux

Lorsque vous exportez des journaux vers un sujet Pub/Sub, Logging publie chaque entrée de journal en tant que message Pub/Sub dès qu'il la reçoit.

Organisation des journaux exportés

Le champ data de chaque message correspond à un objet LogEntry encodé en base64. Un abonné Pub/Sub peut par exemple extraire l'objet suivant d'un sujet qui reçoit des entrées de journal. L'objet affiché contient une liste qui ne comprend qu'un seul message. Notez toutefois que Pub/Sub peut renvoyer plusieurs messages lorsque plusieurs entrées de journal sont disponibles. La valeur data (environ 600 caractères) et la valeur ackId (environ 200 caractères) ont été raccourcies pour rendre l'exemple plus lisible :

{
 "receivedMessages": [
  {
   "ackId": "dR1JHlAbEGEIBERNK0EPKVgUWQYyODM...QlVWBwY9HFELH3cOAjYYFlcGICIjIg",
   "message": {
    "data": "eyJtZXRhZGF0YSI6eyJzZXZ0eSI6Il...Dk0OTU2G9nIjoiaGVsbG93b3JsZC5sb2cifQ==",
    "attributes": {
     "compute.googleapis.com/resource_type": "instance",
     "compute.googleapis.com/resource_id": "123456"
    },
    "messageId": "43913662360"
   }
  }
 ]
}

Si vous décodez le champ data et le mettez en forme, vous obtenez l'objet LogEntry suivant :

{
  "log": "helloworld.log",
  "insertId": "2015-04-15|11:41:00.577447-07|10.52.166.198|-1694494956",
  "textPayload": "Wed Apr 15 20:40:51 CEST 2015 Hello, world!",
  "timestamp": "2015-04-15T18:40:56Z",
  "labels": {
    "compute.googleapis.com\/resource_type": "instance",
    "compute.googleapis.com\/resource_id": "123456"
  },
  "severity": "WARNING"
  }
}

Intégration de Pub/Sub avec des services tiers

Logging accepte l'intégration de la journalisation avec des services tiers, tels que Splunk. Pour obtenir la liste actuelle des intégrations, consultez la section Partenaires pour les intégrations de la suite d'opérations de Google Cloud.

L'exportation des journaux se fait via un sujet Pub/Sub, et le service tiers les reçoit en s'abonnant au même sujet.

Pour effectuer l'intégration, attendez-vous à effectuer une démarche semblable à la suivante :

  1. Demandez au service tiers de vous fournir un nom de compte de service Google Cloud créé à partir de son projet Google Cloud, par exemple, 12345-xyz@developer.gserviceaccount.com. Ce nom vous permet ensuite d'autoriser le service tiers à recevoir vos journaux.

  2. Dans le projet contenant les journaux,

  3. Activez l'API Pub/Sub.

    Activer l'API

  4. Créer un sujet Pub/Sub Vous pouvez effectuer cette opération lors de la configuration d'un récepteur de journaux ou en procédant comme suit :

    1. Accédez à la liste des sujets Pub/Sub.
    2. Sélectionnez Créer un sujet et saisissez un nom de sujet. Exemple : projects/my-project-id/topics/my-pubsub-topic. Exportez vos journaux vers ce sujet.

      Chaque message envoyé au sujet inclut l'horodatage de l'entrée de journal exportée dans le message Pub/Sub attributes. Par exemple :

      "attributes": {
        "logging.googleapis.com/timestamp": "2018-10-01T00:00:00Z"
      }
      
    3. Cliquez sur Create (Créer).

    4. Autorisez Logging à exporter les journaux vers le sujet. Pour obtenir les instructions correspondantes, consultez la section Définir des autorisations pour Pub/Sub.

  5. Autorisez le service tiers à s'abonner à votre sujet :

    1. Restez dans la liste des sujets Pub/Sub de votre projet dans Cloud Console.
    2. Sélectionnez votre nouveau sujet.
    3. Sélectionnez Autorisations.
    4. Saisissez le nom du compte de service du service tiers.
    5. Dans le menu Sélectionner un rôle, sélectionnez Abonné Pub/Sub.
    6. Cliquez sur Ajouter.
  6. Fournissez au service tiers le nom de votre sujet Pub/Sub, par exemple projects/my-project-number/topics/my-pubsub-topic. Le service tiers doit d'abord s'abonner au sujet pour que vous puissiez exporter des journaux.

  7. Une fois le service tiers abonné à votre sujet, vous pouvez commencer à exporter des journaux.

    1. Dans votre projet contenant les journaux que vous souhaitez exporter, cliquez sur Créer une exportation au-dessus du champ de requête de recherche. Le panneau Modifier l'exportation s'ouvre.
    2. Indiquez un nom de récepteur.
    3. Dans le menu Sink Service (Service du récepteur), sélectionnez Cloud Pub/Sub.
    4. Dans le menu Sink Destination (Destination du récepteur), sélectionnez le sujet Pub/Sub auquel le service tiers est abonné.
    5. Sélectionnez Create Sink (Créer un récepteur) pour commencer l'exportation.
    6. Une boîte de dialogue Récepteur créé s'affiche. Elle vous indique que votre récepteur d'exportation a bien été créé et qu'il dispose des autorisations nécessaires pour écrire les entrées de futurs journaux correspondants dans la destination que vous avez sélectionnée.

Le service tiers devrait commencer à recevoir immédiatement les entrées de journal.

Pour en savoir plus sur les scénarios courants d'exportation de journaux à l'aide de Pub/Sub, consultez la section Modèles de conception pour l'exportation vers Cloud Logging: scénarios d'exportation de journaux.

Cloud Logging

Les buckets de journaux sont des conteneurs de stockage Cloud Logging dans vos projets Google Cloud dans lesquels sont stockés les données de vos journaux. Vous pouvez créer des récepteurs de journaux pour tout, ou seulement un sous-ensemble, de vos journaux vers un bucket de journaux. Cette flexibilité vous permet de choisir le projet Cloud dans lequel vos journaux sont stockés et les autres journaux stockés.

Pour découvrir comment créer et répertorier les buckets de journaux associés à votre projet Google Cloud, consultez la page Gérer les buckets.

Organisation des entrées de journal

Les entrées de journal de Logging correspondent à des objets de type LogEntry.

Les entrées de journal présentant le même type de journal, appelé [LOG_ID] dans la documentation de référence de LogEntry, ont généralement le même format. Le tableau suivant présente des exemples d'entrées de journal:

syslog

Le journal syslog Compute Engine est un type de journal personnalisé produit par l'agent de journalisation google-fluentd qui s'exécute sur des instances de machine virtuelle:

{
  logName: "projects/my-gcp-project-id/logs/syslog",
  timestamp: "2015-01-13T19:17:01Z",
  resource: {
    type: "gce_instance",
    labels: {
      instance_id: "12345",
      zone: "us-central1-a",
      project_id: "my-gcp-project-id"
    }
  },
  insertId: "abcde12345",
  textPayload: "Jan 13 19:17:01 my-gce-instance /USR/SBIN/CRON[29980]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)"
}

request_log

Le journal request_log d'App Engine contient des entrées de journal comportant des champs protoPayload qui incluent des objets de type RequestLog :

{
  logName: "projects/my-gcp-project-id/logs/appengine.googleapis.com%2Frequest_log",
  timestamp: "2015-01-13T19:00:39.796169Z",
  resource: {
    type: "gae_app",
    labels: {
      module_id: "default",
      zone: "us6",
      project_id: "my-gcp-project-id",
      version_id: "20150925t173233"
    }
  }
  httpRequest: {
    status: 200
  }
  insertId: "abcde12345",
  operation: {
    id: "abc123",
    producer: "appengine.googleapis.com/request_id",
    first: true,
    last: true
  }
  protoPayload: {
    @type: "type.googleapis.com/google.appengine.logging.v1.RequestLog"
    versionId: "20150925t173233",
    status: 200,
    startTime: "2017-01-13T19:00:39.796169Z",
    # ...
    appId: "s~my-gcp-project-id",
    appEngineRelease: "1.9.17",
  }
}

activity

Le journal activity est un journal d'audit pour les activités d'administration. Sa charge utile est une représentation JSON de type AuditLog :

{
 logName: "projects/my-gcp-project-id/logs/cloudaudit.googleapis.com%2Factivity"
 timestamp: "2017-04-22T13:41:32.245Z"
 severity: "NOTICE"
 resource: {
  type: "gce_instance"
  labels: {
   instance_id: "2403273232180765234"
   zone: "us-central1-b"
   project_id: "my-gcp-project-id"
  }
 }
 insertId: "54DC1882F4B49.A4996C2.6A02F4C1"
 operation: {
  id: "operation-1492868454262-54dc185e9a4f0-249fe233-f73d472a"
  producer: "compute.googleapis.com"
  last: true
 }
 protoPayload: {
  @type: "type.googleapis.com/google.cloud.audit.AuditLog"
  authenticationInfo: {
   principalEmail: "649517127304@cloudservices.gserviceaccount.com"
  }
  requestMetadata: {…}
  serviceName: "compute.googleapis.com"
  methodName: "v1.compute.instances.delete"
  resourceName: "projects/my-gcp-project-id/zones/us-central1-b/instances/abc123"
 }
}

Entrées de journal tardives

Les entrées de journal exportées sont enregistrées par lots toutes les heures dans des buckets Cloud Storage. L'affichage des premières entrées peut prendre 2 à 3 heures. Les partitions de fichiers journaux exportés qui possèdent le suffixe An ("Append", ajout) contiennent les entrées de journal arrivées en retard.

Si la destination de l'exportation cesse de fonctionner, Cloud Logging conserve les données en mémoire tampon jusqu'à la fin de l'interruption.

Entrées de journal App Engine

App Engine combine plusieurs sous-entrées de type google.appengine.logging.v1.LogLine (également appelées AppLog ou AppLogLine) sous une entrée de journal principale de type google.appengine.logging.v1.RequestLog. pour la requête à l'origine de l'activité du journal. Les lignes de journal possèdent chacune un "ID de requête" qui identifie l'entrée principale. L'explorateur de journaux affiche les lignes de journal avec l'entrée de journal de la requête. Logging tente alors de placer toutes les lignes de journal dans le lot avec la requête d'origine, même si leur horodatage les placerait normalement dans le lot suivant. En cas d'impossibilité, il peut manquer certaines lignes à l'entrée de journal de la requête, et le lot suivant peut contenir des lignes de journal "orphelines" sans requête. Si vous souhaitez éviter cela, soyez prêt à reconnecter les éléments de la requête lorsque vous traitez vos journaux.

Tarifs

Les journaux exportés ne sont pas facturés par Cloud Logging, mais des frais de destination peuvent s'appliquer. Pour en savoir plus, consultez la page des tarifs du produit concerné :

Notez également que si vous exportez vos journaux de flux de cloud privé virtuel (VPC) puis que vous les excluez de Cloud Logging, des frais de génération des journaux de flux VPC s'appliquent en plus des frais de destination.