Cette page explique comment copier manuellement les entrées de journal déjà stockées dans des buckets de journaux Cloud Logging vers des buckets Cloud Storage. Une opération de copie n'exige pas que le bucket de journaux et le bucket Cloud Storage se trouvent dans le même projet Google Cloud.
Vous pouvez copier les entrées de journal des buckets de journaux vers des buckets Cloud Storage pour les raisons suivantes:
- Si vous avez oublié d'acheminer des entrées de journal vers Cloud Storage avant de les stocker dans Logging.
- Pour partager les entrées de journal avec des auditeurs en dehors de Logging.
- Pour analyser des entrées de journal avec des scripts dans Cloud Storage.
Après avoir copié des entrées de journal dans Cloud Storage, les entrées de journal restent stockées dans le bucket à partir duquel elles ont été copiées.
Les opérations de copie ne remplacent pas les récepteurs qui envoient automatiquement toutes les entrées de journal entrantes correspondant aux filtres d'inclusion et d'exclusion à une destination de stockage compatible présélectionnée, y compris les buckets Cloud Storage. Utilisez des récepteurs lorsque vous savez que vous souhaitez stocker des entrées de journal dans un bucket Cloud Storage.
Pour copier les journaux, puis gérer et surveiller l'opération, vous devez utiliser la Google Cloud CLI.
Limites
Les limites suivantes s'appliquent lors de la copie d'entrées de journal :
Vous ne pouvez copier des journaux que dans des buckets Cloud Storage ; les autres destinations ne sont pas disponibles.
Vous ne pouvez pas copier les journaux des buckets de journaux pour lesquels CMEK est configuré.
Avant de commencer
Avant de commencer à copier des journaux, procédez comme suit :
- Vérifiez que vous utilisez la dernière version de la gcloud CLI. Pour savoir comment installer ou mettre à jour gcloud CLI, consultez la page Gérer les composants de Google Cloud CLI.
-
Pour obtenir les autorisations nécessaires pour copier des entrées de journal, demandez à votre administrateur de vous accorder les rôles IAM suivants sur le projet contenant le bucket de journaux à partir duquel vous copiez:
-
Pour exécuter une opération de copie :
Administrateur de journalisation (
roles/logging.admin
) -
Pour afficher et gérer l'état d'une opération de copie :
Rédacteur de configuration des journaux (
roles/logging.configWriter
)
-
Pour exécuter une opération de copie :
Administrateur de journalisation (
-
Pour obtenir les autorisations nécessaires pour écrire des entrées de journal dans Cloud Storage, demandez à votre administrateur de vous accorder le rôle IAM Créateur d'objets Storage (
roles/storage.objectCreator
) sur le projet contenant le bucket Cloud Storage.
Copier les entrées de journal
Logging ne copie que les entrées de journal stockées dans le bucket de journaux au démarrage de l'opération de copie. Les entrées de journal stockées dans des buckets de journaux après le démarrage de l'opération de copie ne sont pas copiées dans Cloud Storage.
Pour copier des entrées de journal dans Cloud Storage, vous devez disposer des informations suivantes :
- ID et emplacement du bucket de journaux à partir duquel vous effectuez la copie.
Pour récupérer l'ID du bucket de journaux et son emplacement, utilisez la commande gcloud CLI
gcloud logging buckets list
. - Nom du bucket Cloud Storage dans lequel vous effectuez la copie. Pour savoir comment récupérer le nom du bucket Cloud Storage, consultez la section Obtenir les informations sur le bucket Cloud Storage.
- Un filtre pour les entrées de journal que vous souhaitez copier.
Pour copier les entrées de journal, exécutez la commande gcloud logging copy
:
gcloud logging copy BUCKET_ID storage.googleapis.com/CLOUD_STORAGE_BUCKET_NAME \
--location=LOCATION --log-filter='FILTER' --project=PROJECT_ID
Avant d'exécuter la commande précédente, procédez comme suit:
- Remplacez BUCKET_ID par le nom de votre bucket de journaux.
- Remplacez CLOUD_STORAGE_BUCKET_NAME par le nom de votre bucket Cloud Storage.
- Remplacez LOCATION par l'emplacement du bucket de journaux.
(Facultatif) Remplacez FILTER par le filtre qui définit les journaux à copier.
Si vous omettez l'option
--log-filter
, toutes les entrées de journal du bucket de journaux sont copiées dans le bucket Cloud Storage.Remplacez PROJECT_ID par l'ID de votre projet Google Cloud. Vous pouvez ignorer cet indicateur lorsque la configuration active de gcloud CLI est définie sur le bon projet Google Cloud.
Exemple de commande :
gcloud logging copy my-log-bucket storage.googleapis.com/my-gcs-bucket \
--location=global --log-filter='timestamp > "2024-07-18T10:00:00.0Z"' \
--project=my-project
Cette commande crée une opération de longue durée à exécuter en arrière-plan et renvoie le nom de l'opération de copie et l'emplacement du bucket de journaux :
name: projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID
L'emplacement de l'opération de copie est identique à celui du bucket de journaux à partir duquel vous copiez les journaux.
Afficher et gérer les opérations de copie
Vous pouvez afficher et gérer vos opérations de copie à l'aide des commandes gcloud logging operations
, qui vous permettent de lister, d'afficher et d'annuler des opérations.
Les commandes suivantes nécessitent de spécifier l'emplacement de l'opération. Utilisez l'emplacement de votre bucket de journaux. Pour savoir comment trouver l'emplacement de votre bucket de journaux, consultez la section Afficher les détails d'un bucket.
Répertorier les opérations de copie
Vous pouvez répertorier les opérations de copie récentes, y compris les opérations planifiées, en cours, terminées, en échec et annulées. Les opérations de copie récentes apparaissent dans les résultats pendant un maximum de 30 jours après leur heure de fin.
Pour répertorier les opérations de copie, exécutez la commande suivante :
gcloud logging operations list --location=LOCATION \
--operation-filter=request_type=CopyLogEntries \
--project=PROJECT_ID
Avant d'exécuter la commande précédente, procédez comme suit:
- Remplacez LOCATION par l'emplacement du bucket de journaux à partir duquel vous copiez.
- Remplacez PROJECT_ID par l'ID de votre projet Google Cloud.
La commande renvoie des informations sur l'opération de longue durée, y compris l'ID d'opération :
projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID
Afficher l'état d'une opération de copie
Vous pouvez récupérer l'état et d'autres métadonnées relatives aux opérations de copie, y compris :
startTime
: horodatage indiquant la création de l'opération.endTime
: horodatage indiquant la fin de l'opération.state
: état de l'opération (planifiée, en cours d'exécution, annulée, échoué ou réussie).cancellation
: indique si l'utilisateur a demandé l'annulation de l'opération.progress
: estimation de la progression de l'opération (0 à 100%).destination
: nom du bucket Cloud Storage dans lequel l'opération copie des journaux.filter
: filtre spécifiant les entrées de journal à copier.name
: nom du bucket de journaux à partir duquel l'opération copie des journaux.logEntriesCopiedCount
: nombre d'entrées de journal copiées dans le bucket Cloud Storage par l'opération.
Notez que tous les champs de métadonnées répertoriés ne s'appliquent pas à chaque opération de copie.
Par exemple, si une opération de copie est toujours en cours d'exécution, les métadonnées endtime
ne s'appliquent pas à l'opération. Autre exemple, si l'option --log-filter=FILTER
n'est pas utilisée lors de l'exécution de la commande gcloud logging copy
, les métadonnées filter
ne s'appliquent pas à l'opération.
Pour obtenir des informations sur une opération de copie, exécutez la commande suivante :
gcloud logging operations describe OPERATION_ID \
--location=LOCATION --project=PROJECT_ID
Avant d'exécuter la commande précédente, procédez comme suit:
- Remplacez OPERATION_ID par l'ID de l'opération.
- Remplacez LOCATION par l'emplacement du bucket de journaux à partir duquel vous copiez.
- Remplacez PROJECT_ID par l'ID de votre projet Google Cloud.
La commande renvoie des métadonnées sur l'opération de copie. Par exemple, voici le résultat pour une opération en cours :
done: false
metadata:
`@type`: type.googleapis.com/google.logging.v2.CopyLogEntriesMetadata
progress: 75
destination: storage.googleapis.com/my-storage-bucket-1
source: projects/my-test-project/locations/us-central1/buckets/my-logging-bucket-2
verb: copy
startTime: `2024-05-23T10:52:40.039751Z`
state: OPERATION_STATE_RUNNING
name: projects/my-test-project/locations/us-central1/buckets/my-logging-bucket-2
</pre>
Annuler une opération de copie
Vous pouvez annuler une opération de copie en cours. Si vous annulez une opération de copie, toutes les entrées de journal copiées avant l'annulation restent dans le bucket Cloud Storage.
Une fois une opération de copie annulée, Logging termine tous les processus en cours avant de terminer l'annulation. Certaines entrées de journal peuvent donc persister dans Cloud Storage après l'annulation de l'opération.
Pour annuler une opération de copie, exécutez la commande suivante :
gcloud logging operations cancel OPERATION_ID \
--location=LOCATION --project=PROJECT_ID
Avant d'exécuter la commande précédente, procédez comme suit:
- Remplacez OPERATION_ID par l'ID de l'opération.
- Remplacez LOCATION par l'emplacement du bucket de journaux à partir duquel vous copiez.
- Remplacez PROJECT_ID par l'ID de votre projet Google Cloud.
Afficher les journaux dans Cloud Storage
Pour afficher et comprendre les journaux que vous avez copiés dans Cloud Storage, consultez la section Afficher les journaux acheminés vers Cloud Storage.
Quotas et limites
Toutes les opérations de copie prennent au moins une heure, quelle que soit la quantité de données copiées.
Pour copier un volume élevé, par exemple des pétaoctets, divisez la copie entre plusieurs opérations de copie à l'aide du champ timestamp
de l'option --filter
.
La commande de copie ne peut pas copier les entrées de journal dont la période de conservation a expiré.
Tarifs
Cloud Logging ne facture pas l'acheminement des journaux vers une destination compatible. Toutefois, la destination peut facturer des frais.
À l'exception du bucket de journaux _Required
, Cloud Logging facture le streaming de journaux dans des buckets de journaux et le stockage pendant une durée supérieure à la période de conservation par défaut du bucket de journaux.
Cloud Logging ne facture pas la copie des journaux, la définition des champs d'application des journaux ni les requêtes émises via les pages Explorateur de journaux ou Analyse de journaux.
Pour en savoir plus, consultez les documents suivants :
- Synthèse des tarifs Cloud Logging
Coûts de destination:
- Les frais de génération des journaux de flux VPC s'appliquent lorsque vous envoyez vos journaux de flux de cloud privé virtuel (VPC) vers Cloud Logging, puis les excluez de ce service.