Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
I log sono essenziali per mantenere l'integrità, la sicurezza e l'efficienza operativa dei tuoi deployment air-gap. Forniscono informazioni preziose sui seguenti aspetti di un ambiente:
Comportamento dell'applicazione: identifica errori, problemi di prestazioni e attività insolite all'interno delle tue applicazioni.
Attività di sistema: monitora le prestazioni e l'integrità dei componenti dell'infrastruttura sottostante.
Controllo della sicurezza: monitora le azioni degli utenti, gli eventi di controllo dell'accesso e le potenziali minacce alla sicurezza.
Risoluzione dei problemi: diagnostica e risolvi i problemi analizzando i dati dei log storici.
Pertanto, Google Distributed Cloud (GDC) air-gapped fornisce una piattaforma di logging per
raccogliere e analizzare i log. GDC acquisisce i due tipi di log seguenti:
Audit log: registra le attività amministrative e degli utenti su operazioni privilegiate e soddisfa i requisiti di controllo e conformità su GDC.
Log operativi: registra condizioni, modifiche e azioni mentre gestisci
le operazioni in corso in applicazioni e servizi su
GDC. Questi log aiutano sviluppatori e operatori a testare
e eseguire il debug delle applicazioni.
Questa pagina fornisce una panoramica delle funzionalità di logging negli ambienti GDC e spiega i concetti e i componenti chiave coinvolti nella gestione dei log generati dalle applicazioni e dalla piattaforma stessa.
Componenti chiave
I deployment GDC utilizzano una piattaforma di logging per raccogliere e
archiviare i log provenienti da varie origini. Questa piattaforma include i seguenti
componenti:
Fluent Bit: un processore e un inoltratore di log leggero distribuito su ogni nodo del cluster. Fluent Bit raccoglie i log da applicazioni, componenti di sistema
e Kubernetes stesso.
Loki: un sistema di aggregazione dei log open source che archivia ed esegue query sui log
delle tue applicazioni e della tua infrastruttura.
Sink di log: router di log che esportano le voci di log in altre destinazioni, come un sistema di archiviazione locale o uno strumento di gestione degli eventi e delle informazioni di sicurezza (SIEM). Questi sink di log ti offrono flessibilità nella gestione e
nell'analisi dei dati di log.
Pipeline di logging: un servizio gestito che archivia i dati di log e implementa la logica per la raccolta dei log. Negli ambienti isolati, la pipeline di logging viene eseguita localmente all'interno del data center.
Grafana: una piattaforma di analisi che ti consente di creare dashboard
approfondite ed esplorare i dati di logging. Puoi eseguire query sui log archiviati nella
piattaforma di logging utilizzando l'interfaccia utente di Grafana.
Considerazioni per i deployment
Quando utilizzi la piattaforma di logging per raccogliere i log, tieni presente i seguenti aspetti:
Capacità di archiviazione: pianifica una capacità di archiviazione sufficiente per ospitare
il volume di dati di log generati dalle tue applicazioni e dai componenti di sistema.
Criteri di conservazione dei log: definisci i tempi di conservazione dei log in base alle tue esigenze operative e di conformità durante la creazione dell'organizzazione.
Per ulteriori informazioni, vedi Conservazione dei log.
Vantaggi
Quando utilizzi la piattaforma di logging in GDC, ottieni i seguenti vantaggi:
Automazione: automatizza le attività correlate ai log, come l'esportazione dei log in un repository centrale o la generazione di report.
Personalizzazione: crea soluzioni di logging personalizzate in base alle tue esigenze e integrarle con strumenti e flussi di lavoro esistenti.
Efficienza: gestisci in modo programmatico grandi volumi di dati di log ed esegui query complesse.
Flessibilità: accedi ai dati dei log da varie origini e integra i tuoi sistemi con strumenti di analisi e monitoraggio.
Utilizzando la piattaforma di logging nel tuo ambiente air-gap, puoi gestire e analizzare i dati di log, anche in un ambiente isolato.
Conservazione dei log
I criteri di conservazione definiscono per quanto tempo vengono archiviati i log e le metriche. Queste norme sono fondamentali per soddisfare i requisiti di conformità e supportare l'analisi operativa. GDC utilizza i tempi di conservazione per configurare
le norme relative al ciclo di vita e alla conservazione per le configurazioni delle risorse.
Se non vengono forniti tempi di conservazione specifici durante la creazione dell'organizzazione
o se sono impostati su 0 nella risorsa personalizzata Organization durante la creazione,
il sistema applica i seguenti valori predefiniti per i log:
Log di controllo dell'infrastruttura: 2000 giorni
Log di controllo della piattaforma: 400 giorni
Log operativi: 90 giorni
Ulteriori risorse
Consulta l'elenco completo dei
log di controllo
e dei log operativi
per descrizioni dettagliate di tutti i log raccolti dai componenti di GDC. Queste risorse forniscono un contesto prezioso e facilitano le strategie di logging avanzate.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[[["\u003cp\u003eLogs in air-gapped deployments are crucial for monitoring application behavior, system activity, security auditing, and troubleshooting.\u003c/p\u003e\n"],["\u003cp\u003eGoogle Distributed Cloud (GDC) air-gapped collects audit logs for user and administrative activities, and operational logs for ongoing application and service management.\u003c/p\u003e\n"],["\u003cp\u003eThe GDC logging platform includes Fluent Bit for log processing, Loki for log aggregation, log sinks for exporting data, a local logging pipeline, and Grafana for log analysis and dashboards.\u003c/p\u003e\n"],["\u003cp\u003eUsing the GDC logging platform provides automation, customization, efficiency, and flexibility in managing and analyzing log data within an isolated environment.\u003c/p\u003e\n"],["\u003cp\u003eLog retention policies are set during organization creation and are permanent, with default values of 2000 days for infrastructure audit logs, 400 days for platform audit logs, and 90 days for operational logs.\u003c/p\u003e\n"]]],[],null,["# Logging overview\n\nLogs are essential for maintaining your air-gapped deployments' health,\nsecurity, and operational efficiency. They provide valuable insights into the\nfollowing aspects of an environment:\n\n- **Application behavior**: Identify errors, performance issues, and unusual activity within your applications.\n- **System activity**: Monitor the performance and health of underlying infrastructure components.\n- **Security auditing**: Track user actions, access control events, and potential security threats.\n- **Troubleshooting**: Diagnose and resolve issues by analyzing historical log data.\n\nTherefore, Google Distributed Cloud (GDC) air-gapped provides a logging platform for\ncollecting and analyzing your logs. GDC captures the\nfollowing two types of logs:\n\n- **Audit logs**: Record user and administrative activities on privileged operations and achieve auditing and compliance requirements on GDC.\n- **Operational logs**: Record conditions, changes, and actions as you manage ongoing operations in applications and services on GDC. These logs help developers and operators test and debug applications.\n\nThis page provides an overview of logging features in\nGDC environments and explains the key concepts and\ncomponents involved in managing logs generated by your applications and the\nplatform itself.\n\nKey components\n--------------\n\nGDC deployments use a logging platform to collect and\nstore logs from various sources. This platform includes the following\ncomponents:\n\n- **Fluent Bit**: A lightweight log processor and forwarder deployed on each cluster node. Fluent Bit collects logs from applications, system components, and Kubernetes itself.\n- **Loki**: An open-source log aggregation system that stores and queries logs from your applications and infrastructure.\n- **Log sinks**: Log routers that export log entries to other destinations, such as a local storage system or a security information and event management (SIEM) tool. These log sinks give you flexibility in managing and analyzing your log data.\n- **Logging pipeline**: A managed service that stores log data and implements the logic for log collection. In air-gapped environments, the logging pipeline runs locally within your data center.\n- **Grafana**: An analytics platform that lets you create insightful dashboards and explore your logging data. You can query logs stored in the logging platform using the Grafana user interface.\n\nConsiderations for your deployments\n-----------------------------------\n\nConsider the following aspects when using the logging platform to collect logs:\n\n- **Storage capacity**: Plan for sufficient storage capacity to accommodate the volume of log data your applications and system components generate.\n- **Log retention policies** : Define log retention times based on your compliance and operational needs during the creation of your organization. For more information, see [Log retention](#retention).\n\nBenefits\n--------\n\nYou obtain the following benefits when using the logging platform in\nGDC:\n\n- **Automation**: Automate log-related tasks, such as exporting logs to a central repository or generating reports.\n- **Customization**: Build custom logging solutions tailored to your needs and integrate them with existing tools and workflows.\n- **Efficiency**: Programmatically manage large volumes of log data and perform complex queries.\n- **Flexibility**: Access log data from various sources and integrate your systems with analysis and monitoring tools.\n\nBy using the logging platform in your air-gapped environment, you can manage and\nanalyze log data, even in an isolated environment.\n\nLog retention\n-------------\n\n| **Important:** Retention times are permanent and are configured when the organization is created. You cannot modify retention times after the organization's creation.\n\nRetention policies define how long metrics and logs are stored. These policies\nare crucial for meeting compliance requirements and supporting operational\nanalysis. GDC uses retention times to configure\nlifecycle and retention policies for resource configurations.\n\nIf specific retention times are not provided during the organization's creation\nor are set to `0` in the `Organization` custom resource during creation time,\nthe system applies the following default values for logs:\n\n- **Infrastructure audit logs**: 2000 days\n- **Platform audit logs**: 400 days\n- **Operational logs**: 90 days\n\n| **Note:** Minimum default audit log retention time is 400 days.\n\nFurther resources\n-----------------\n\nConsult the comprehensive list of\n[audit logs](/distributed-cloud/hosted/docs/latest/gdch/platform-application/pa-ao-operations/audit-logs-overview)\nand [operational logs](/distributed-cloud/hosted/docs/latest/gdch/platform-application/pa-ao-operations/operational-logs-overview)\nfor detailed descriptions of all collected logs from GDC\ncomponents. These resources provide valuable context and facilitate advanced\nlogging strategies."]]