Lire les journaux de transfert

Cette page explique comment afficher les journaux Cloud Logging pour le service de transfert de stockage et décrit le format des journaux. Pour plus d'informations sur la configuration des journaux du service de transfert de stockage, consultez la page Configurer les journaux de transfert.

Pour en savoir plus sur les journaux du service de transfert pour les données sur site, consultez la section Format du journal de transfert sur site.

Avant de commencer

Avant de commencer, vérifiez que vous avez accès à Cloud Logging. Nous vous recommandons le rôle Identity and Access Management (IAM) de lecteur de journaux (roles/logging.viewer). Pour en savoir plus sur l'accès à Logging, consultez la section Contrôle des accès avec IAM.

La section suivante explique comment vérifier et accorder l'accès IAM :

Voir les journaux

Pour afficher les journaux de transfert, procédez comme suit :

Google Cloud Console

  1. Accédez au menu de navigation Google Cloud , puis sélectionnez Journaux > Explorateur de journaux :<br\></br\>

    Accéder à l'explorateur de journaux

  2. Sélectionnez un projet Cloud.

  3. Dans le menu Mettre à niveau, passez de l'ancienne visionneuse de journaux à l'explorateur de journaux.

  4. Pour filtrer vos journaux afin de n'afficher que les entrées du service de transfert de stockage, saisissez storage_transfer_job dans le champ de requête, puis cliquez sur Exécuter la requête.

  5. Dans le volet Résultats de la requête, cliquez sur Modifier l'heure pour modifier la période pendant laquelle les résultats doivent être renvoyés.

Pour en savoir plus sur l'utilisation de l'explorateur de journaux, consultez la page Utiliser l'explorateur de journaux.

API Cloud Logging

Utilisez la méthode API Cloud Logging entries.list.

Pour filtrer vos résultats afin de n'inclure que les entrées liées au service de transfert de stockage, utilisez le champ filter. Vous trouverez ci-dessous un exemple d'objet de requête JSON.

{
"resourceNames":
  [
    "projects/my-project-name"
  ],
  "orderBy": "timestamp desc",
  "filter": "resource.type=\"storage_transfer_job\""
}

gcloud CLI

Pour rechercher les journaux du service de transfert de stockage à l'aide de l'outil de ligne de commande gcloud, exécutez la commande gcloud logging read.

Spécifiez un filtre pour limiter les résultats aux journaux du service de transfert de stockage.

gcloud logging read "resource.type=storage_transfer_job"

Format du journal de transfert

La section suivante décrit les champs des journaux du service de transfert de stockage :

Tous les champs spécifiques au service de transfert de stockage sont contenus dans un champ jsonPayload.

Actions FIND

jsonPayload: {
  @type: "type.googleapis.com/google.storagetransfer.logging.TransferActivityLog"
  action: "FIND"
  completeTime: "2021-12-16T18:58:49.344509695Z"
  destinationContainer: {
    gcsBucket: {
      bucket: "my-bucket-2"
    }
    type: "GCS"
  }
  operation: "transferOperations/transferJobs-7876027868280507149--3019866490856027148"
  sourceContainer: {
    gcsBucket: {
      bucket: "my-bucket-1"
    }
    type: "GCS"
  }
  status: {
    statusCode: "OK"
  }
}

Actions COPY et DELETE

jsonPayload: {
  @type: "type.googleapis.com/google.storagetransfer.logging.TransferActivityLog"
  action: "COPY"
  completeTime: "2021-12-16T18:59:00.510509049Z"
  destinationObject: {
    gcsObject: {
      bucket: "my-bucket-2"
      objectKey: "README.md"
    }
    type: "GCS"
  }
  operation: "transferOperations/transferJobs-7876027868280507149--3019866490856027148"
  sourceObject: {
    gcsObject: {
      bucket: "my-bucket-1"
      lastModifiedTime: "2021-12-07T16:41:09.456Z"
      md5: "WgnCOIdfCXNTUDpQJSKb2w=="
      objectKey: "README.md"
    }
    type: "GCS"
  }
  status: {
    statusCode: "OK"
  }
}
Champ du journal Description
@type La valeur est toujours type.googleapis.com/google.storagetransfer.logging.TransferActivityLog.
action

Décrit l'action de cette tâche particulière. Choisissez l'une des options suivantes :

  • FIND : recherche de tâches à effectuer, comme répertorier les fichiers d'un répertoire ou les objets d'un bucket.
  • COPY : copie de fichiers ou d'objets vers Cloud Storage.
  • DELETE : suppression de fichiers ou d'objets de la source ou de la destination.
completeTime Horodatage conforme à la norme ISO 8601 indiquant quand l'opération s'est terminée.
destinationContainer

Uniquement présent pour les opérations FIND.

Conteneur de destination pour ce transfert. Seuls les buckets Cloud Storage sont compatibles avec la journalisation. Contient deux sous-champs :

  • gcsBucket.bucket : le nom du bucket Cloud Storage de destination.
  • type : toujours GCS.
destinationObject

Uniquement présent pour les opérations COPY et DELETE.

Informations sur l'objet tel qu'il a été écrit dans Cloud Storage. Contient deux sous-champs :

  • gcsObject, qui contient lui-même deux sous-champs, bucket et objectKey. Ensemble, ils définissent le chemin d'accès Cloud Storage de l'objet.
  • type est toujours GCS.

Exemple :


destinationObject: {
  gcsObject: {
    bucket: "my-bucket-2"
    objectKey: "README.md"
  }
  type: "GCS"
}
operation Le nom complet de transferOperations.
sourceContainer

Uniquement présent pour les opérations FIND.

Le conteneur source pour ce transfert. Contient deux sous-champs :

  • Une entrée spécifiant l'emplacement source. Le nom du champ dépend du type de source. Les champs possibles sont les suivants.
    • awsS3Bucket.bucket : nom du bucket AWS S3.
    • azureBlobContainer : contient les sous-champs account et container, qui définissent ensemble l'URI de stockage Microsoft Azure Blob.
    • gcsBucket.bucket : le nom du bucket Cloud Storage.
    • httpManifest.url : l'URL d'une liste d'URL spécifiant les fichiers accessibles au public à télécharger depuis un serveur HTTP(S).
  • type correspond à AWS_S3, AZURE_BLOB, GCS ou HTTP.

Exemple :


sourceContainer: {
  gcsBucket: {
    bucket: "my-bucket-1"
  }
  type: "GCS"
}
sourceObject

Uniquement présent pour les opérations COPY et DELETE.

Informations sur l'objet source. Contient deux sous-champs :

  • Une entrée spécifique à l'hôte de l'objet source. Le champ est nommé en fonction du type de source et contient des sous-champs pour les métadonnées. Les champs possibles sont les suivants.
    • awsS3Object : un objet AWS S3.
    • azureBlob : un fichier dans Azure Blob Storage.
    • gcsObject : un objet Cloud Storage.
    • httpFile : un fichier spécifié par une liste d'URL.
  • type correspond à AWS_S3, AZURE_BLOB, GCS ou HTTP.

Exemple :


sourceObject: {
  gcsObject: {
    bucket: "my-bucket-1"
    lastModifiedTime: "2021-12-07T16:41:09.456Z"
    md5: "WgnCOIdfCXNTUDpQJSKb2w=="
    objectKey: "README.md"
  }
  type: "GCS"
}
status

L'état de l'action. Si la valeur de status.statusCode est OK, l'action a réussi. Sinon, l'action a échoué. Les champs status.errorType et status.errorMessage ne sont renseignés que si l'état n'est pas OK.

De plus, le champ de niveau supérieur resource contient les champs suivants.

resource: {
  labels: {
    job_id: "transferJobs/7876027868280507149"
    project_id: "my-project-id"
  }
  type: "storage_transfer_job"
}
Champ du journal Description
resource.labels.job_id Le nom de la tâche du service de transfert de stockage à laquelle appartient ce journal.
resource.labels.project_id L'ID de projet Google Cloud pour ce transfert.