Esporta il tuo impatto ambientale

Puoi esportare i tuoi dati di Carbon Footprint in BigQuery per eseguire l'analisi dei dati o per creare dashboard e report personalizzati.

L'esportazione di Carbon Footprint acquisisce le emissioni di gas serra stimate associate all'utilizzo dei servizi Google Cloud coperti per l'account di fatturazione selezionato.

Dopo aver configurato un'esportazione, ti vengono addebitate le risorse BigQuery utilizzate per archiviare ed eseguire query sui dati esportati.

Prima di iniziare

Per creare un'esportazione di Carbon Footprint, consigliamo di avere i seguenti ruoli IAM:

Più precisamente, devi disporre delle seguenti autorizzazioni IAM nel progetto Google Cloud:

  • resourcemanager.projects.update
  • serviceusage.services.enable
  • bigquery.transfers.update

E la seguente autorizzazione IAM per l'account di fatturazione:

  • billing.accounts.getCarbonInformation

Se utilizzi Controlli di servizio VPC

Se la tua organizzazione utilizza i Controlli di servizio VPC, è necessario definire una regola in entrata per l'API BigQuery e l'API BigQuery Data Transfer Service.

Per la regola del criterio in entrata:

  • Imposta l'origine nella sezione "Da" su "Tutte le origini consentono".
  • Concedi l'autorizzazione all'identità, els-da-carbon@gcp-carbon-footprint-exports.iam.gserviceaccount.com.

Configurare un'esportazione di Carbon Footprint in BigQuery

I dati di Carbon Footprint vengono esportati tramite BigQuery Data Transfer Service. Il trasferimento di dati crea una tabella partizionata mensile denominata carbon_footprint nel set di dati BigQuery di tua scelta.

Carbon Footprint esporta i dati di ogni mese il 15 del mese successivo. Ad esempio, i dati sulle emissioni di anidride carbonica per settembre 2022 verranno esportati il 15 ottobre 2022.

Una volta creata, una configurazione di trasferimento di Carbon Footprint esporterà automaticamente i futuri report sulle emissioni di anidride carbonica il 15 di ogni mese. Potrai anche eseguire un backfill per richiedere i dati storici a partire da gennaio 2021.

Console

Per avviare l'esportazione, procedi nel seguente modo:

  1. Vai a Carbon Footprint
  2. Seleziona l'account di fatturazione Cloud che vuoi esportare dal menu Account di fatturazione.
  3. Fai clic su Esporta per abilitare BigQuery Data Transfer Service e aprire la pagina BigQuery Data Transfer Service.
  4. Nella pagina di BigQuery Data Transfer Service:
    1. Assicurati che l'opzione Origine sia impostata su "Esportazioni di Google Cloud Carbon Footprint".
    2. In Nome configurazione di trasferimento, inserisci un nome visualizzato.
    3. In Impostazioni destinazione, fai clic sul campo ID set di dati e seleziona Crea nuovo set di dati se vuoi creare un nuovo set di dati BigQuery per ospitare la tabella esportata. In alternativa, seleziona un set di dati BigQuery esistente.
    4. In Dettagli origine dati, conferma l'ID account di fatturazione Cloud da esportare. Se vuoi, aggiungi altri ID account sotto forma di elenco separato da virgole. Tutti gli ID account di fatturazione devono essere nel formato XXXXXX-XXXXXX-XXXXXX.
  5. Fai clic su Salva.
  6. Nella finestra della richiesta di accesso, fai clic su Consenti.

bq

Utilizza il comando bq mk --transfer_config per avviare l'esportazione:

bq mk \
--transfer_config \
--target_dataset=DATASET \
--display_name=NAME \
--params='{"billing_accounts":"BILLING_ACCOUNT_IDS"}' \
--data_source='61cede5a-0000-2440-ad42-883d24f8f7b8'

Dove:

  • DATASET è il set di dati di destinazione per la configurazione di trasferimento.
  • NAME è il nome visualizzato della configurazione di trasferimento. ad esempio "Report sulle emissioni di anidride carbonica dell'azienda".
  • BILLING_ACCOUNT_IDS è il tuo ID account di fatturazione o un elenco separato da virgole di ID account di fatturazione. Ad esempio: XXXXXX-XXXXXX-XXXXXX,XXXXXX-XXXXXX-XXXXXX

Terraform

Utilizza la risorsa Terraform bigquery_data_transfer_config per creare un'esportazione:

resource "google_bigquery_data_transfer_config" "RESOURCE_NAME" {
  display_name           = "NAME"
  data_source_id         = "61cede5a-0000-2440-ad42-883d24f8f7b8"
  destination_dataset_id = google_bigquery_dataset.DATASET.dataset_id
  params = {
    billing_accounts     = "BILLING_ACCOUNT_IDS"
  }
}

Dove:

  • RESOURCE_NAME è il nome della risorsa Terraform. Ad esempio: carbon_export.
  • NAME è il nome visualizzato della configurazione di trasferimento. ad esempio "Report sulle emissioni di anidride carbonica dell'azienda".
  • DATASET è il nome della risorsa Terraform google_bigquery_dataset da utilizzare come set di dati di destinazione per l'esportazione.

  • BILLING_ACCOUNT_IDS è il tuo ID account di fatturazione o un elenco separato da virgole di ID account di fatturazione. Ad esempio: XXXXXX-XXXXXX-XXXXXX,XXXXXX-XXXXXX-XXXXXX

La configurazione di trasferimento è stata creata ed esporterà i dati il 15 di ogni mese futuro.

La configurazione di trasferimento non esporta automaticamente i dati storici. Per richiedere i dati storici fino a gennaio 2021, pianifica un backfill dei dati seguendo questi passaggi.

Console

Per pianificare il backfill dati, segui questi passaggi:

  1. Vai ai dettagli del trasferimento che hai appena creato.
  2. Fai clic su Pianifica backfill.
  3. Seleziona Esegui per un intervallo di date.
  4. Seleziona il 15 febbraio 2021 come data di inizio e la data odierna come data di fine. Tieni presente che l'esportazione del 15 febbraio 2021 contiene i dati di gennaio 2021 ed è quindi il primo mese disponibile per la richiesta.
  5. Fai clic su OK per richiedere il backfill dati.

Verranno creati backfill di dati per l'intervallo selezionato, esportando i dati storici mensili nel set di dati di destinazione.

bq

Utilizza il comando bq mk --transfer_run per creare un backfill:

bq mk \
--transfer_run \
--start_time=START_TIME \
--end_time=END_TIME \
CONFIG

Dove:

  • START_TIME è un timestamp che specifica l'ora di inizio dell'intervallo di cui eseguire il backfill. Ad esempio: 2021-02-15T00:00:00Z. Tieni presente che il 15 febbraio 2021 è la prima data che puoi specificare qui, in quanto contiene i dati di gennaio 2021.
  • END_TIME è un timestamp che specifica l'ora di fine dell'intervallo di cui eseguire il backfill. Ad esempio: 2022-09-15T00:00:00Z. Puoi utilizzare la data corrente.
  • TRANSFER_CONFIG è l'identificatore del trasferimento creato nel passaggio precedente. Ad esempio: projects/0000000000000/locations/us/transferConfigs/00000000-0000-0000-0000-000000000000.

Dopo aver esportato i dati, puoi utilizzare BigQuery per visualizzare ed eseguire query sui dati. Scopri di più sullo schema dei dati.

Puoi condividere i dati esportati con altri utenti della tua organizzazione concedendo loro il ruolo IAM Utente BigQuery sul progetto selezionato in precedenza. In alternativa, puoi concedere un accesso granulare a livello di set di dati o di tabella utilizzando il ruolo IAM Visualizzatore dati BigQuery.

Gestire le esportazioni di Carbon Footprint

Puoi gestire le esportazioni di Carbon Footprint tramite BigQuery Data Transfer Service. Scopri di più su come utilizzare i trasferimenti.

Esportazione in Fogli Google o CSV

Dopo aver configurato l'esportazione dell'impronta di carbonio in BigQuery e il completamento dell'esportazione pianificata, puoi esportare questi dati da BigQuery a Fogli Google o in formato CSV.

  1. Vai a BigQuery
  2. Nel riquadro Explorer, espandi il progetto e il set di dati, quindi seleziona la tabella contenente i dati sull'impronta di carbonio esportati.
  3. Fai clic su Query.
  4. Inserisci una query per restituire i dati da esportare. Di seguito è riportato un esempio.
  5. Una volta eseguita la query, in Risultati query, fai clic su Salva risultati.
  6. Seleziona il formato che ti interessa e fai clic su Salva.

La seguente query consente di salvare l'intero contenuto della tabella esportata:

SELECT
  usage_month,
  billing_account_id,
  project.number AS project_number,
  project.id AS project_id,
  service.id AS service_id,
  service.description AS service_description,
  location.location AS location,
  location.region AS region,
  carbon_model_version,
  carbon_footprint_kgCO2e.scope1 AS carbon_footprint_scope1,
  carbon_footprint_kgCO2e.scope2.location_based AS carbon_footprint_scope2_location_based,
  carbon_footprint_kgCO2e.scope3 AS carbon_footprint_scope3,
  carbon_footprint_total_kgCO2e.location_based AS carbon_footprint_total_location_based
FROM
  `PROJECT.DATASET.carbon_footprint`
ORDER BY
  usage_month DESC,
  carbon_footprint_total_location_based DESC

Che cosa succede dopo?