Caricamento di dati Avro da Cloud Storage

Avro è un formato di dati open source che raggruppa i dati serializzati con lo schema dei dati nello stesso file.

Quando carichi i dati Avro da Cloud Storage, puoi caricarli in una nuova tabella o partizione oppure puoi aggiungerli a una tabella o partizione esistente o sovrascriverli. Quando i dati vengono caricati in BigQuery, vengono trasformati in formato a colonne per Capacitor (formato di archiviazione di BigQuery).

Quando carichi i dati da Cloud Storage in una tabella BigQuery, il set di dati che contiene la tabella deve trovarsi nella stessa posizione regionale o multiregionale del bucket Cloud Storage.

Per informazioni sul caricamento dei dati Avro da un file locale, consulta Caricare dati in BigQuery da un'origine dati locale.

Limitazioni

Quando carichi i dati in BigQuery da un bucket Cloud Storage, devi rispettare le seguenti limitazioni:

  • Se la posizione del set di dati è impostata su un valore diverso dall'area geografica multipla US, il bucket Cloud Storage deve trovarsi nella stessa regione o essere contenuto nella stessa area geografica multipla del set di dati.
  • BigQuery non garantisce la coerenza dei dati per le origini dati esterne. Le modifiche ai dati sottostanti durante l'esecuzione di una query possono comportare un comportamento imprevisto.
  • BigQuery non supporta il controllo delle versioni degli oggetti Cloud Storage. Se includi un numero di generazione nell'URI Cloud Storage, il job di caricamento non va a buon fine.

Requisiti dei file di input

Per evitare errori resourcesExceeded durante il caricamento dei file Avro in BigQuery, segui queste linee guida:

  • Mantieni le dimensioni delle righe inferiori a 50 MB.
  • Se la riga contiene molti campi di array o campi di array molto lunghi, suddividi i valori dell'array in campi separati.

Prima di iniziare

Concedi ruoli IAM (Identity and Access Management) che forniscano agli utenti le autorizzazioni necessarie per eseguire ogni attività in questo documento e crea un set di dati e una tabella per memorizzare i dati.

Autorizzazioni obbligatorie

Per caricare i dati in BigQuery, devi disporre delle autorizzazioni IAM per eseguire un job di caricamento e caricare i dati nelle tabelle e nelle partizioni BigQuery. Se carichi i dati da Cloud Storage, devi disporre anche delle autorizzazioni IAM per accedere al bucket contenente i dati.

Autorizzazioni per caricare dati in BigQuery

Per caricare dati in una nuova tabella o partizione BigQuery o per accodare o sovrascrivere una tabella o partizione esistente, sono necessarie le seguenti autorizzazioni IAM:

  • bigquery.tables.create
  • bigquery.tables.updateData
  • bigquery.tables.update
  • bigquery.jobs.create

Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per caricare dati in una tabella o una partizione BigQuery:

  • roles/bigquery.dataEditor
  • roles/bigquery.dataOwner
  • roles/bigquery.admin (include l'autorizzazione bigquery.jobs.create)
  • bigquery.user (include l'autorizzazione bigquery.jobs.create)
  • bigquery.jobUser (include l'autorizzazione bigquery.jobs.create)

Inoltre, se disponi dell'autorizzazione bigquery.datasets.create, puoi creare e aggiornare le tabelle utilizzando un job di caricamento nei set di dati che crei.

Per ulteriori informazioni sui ruoli e sulle autorizzazioni IAM in BigQuery, consulta Ruoli e autorizzazioni predefiniti.

Autorizzazioni per caricare i dati da Cloud Storage

Per ottenere le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage, chiedi all'amministratore di concederti il ruolo IAM Amministratore archiviazione (roles/storage.admin) nel bucket. Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.

Questo ruolo predefinito contiene le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage. Per visualizzare le autorizzazioni esatte richieste, espandi la sezione Autorizzazioni richieste:

Autorizzazioni obbligatorie

Per caricare i dati da un bucket Cloud Storage sono necessarie le seguenti autorizzazioni:

  • storage.buckets.get
  • storage.objects.get
  • storage.objects.list (required if you are using a URI wildcard)

Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.

Creare un set di dati e una tabella

Per archiviare i dati, devi creare un set di dati BigQuery, poi creare una tabella BigQuery all'interno del set di dati.

Vantaggi di Avro

Avro è il formato preferito per caricare i dati in BigQuery. Il caricamento dei file Avro presenta i seguenti vantaggi rispetto a CSV e JSON (delimitato da nuova riga):

  • Formato binario Avro:
    • Il caricamento è più rapido. I dati possono essere letti in parallelo, anche se i blocchi di dati sono compressi.
    • Non richiede digitazione o serializzazione.
    • È più facile da analizzare perché non sono stati rilevati problemi di codifica in altri formati come ASCII.
  • Quando carichi i file Avro in BigQuery, lo schema della tabella viene recuperato automaticamente dai dati di origine autodescrittivi.

Schemi Avro

Quando carichi file Avro in una nuova tabella BigQuery, lo schema della tabella viene recuperato automaticamente utilizzando i dati di origine. Quando BigQuery recupera lo schema dai dati di origine, viene utilizzato l'ultimo file in ordine alfabetico.

Ad esempio, in Cloud Storage sono presenti i seguenti file Avro:

gs://mybucket/00/
  a.avro
  z.avro
gs://mybucket/01/
  b.avro

L'esecuzione di questo comando nello strumento a riga di comando bq carica tutti i file (come elenco separato da virgole) e lo schema viene dedotto da mybucket/01/b.avro:

bq load \
--source_format=AVRO \
dataset.table \
"gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"

Quando importi più file Avro con schemi Avro diversi, tutti gli schemi devono essere compatibili con la risoluzione dello schema di Avro.

Quando BigQuery rileva lo schema, alcuni tipi di dati Avro vengono convertiti in tipi di dati BigQuery per renderli compatibili con la sintassi di GoogleSQL. Per ulteriori informazioni, consulta Conversioni in avro.

Per fornire uno schema di tabella per la creazione di tabelle esterne, imposta la proprietà referenceFileSchemaUri nell'API BigQuery o il parametro
--reference_file_schema_uri nello strumento a riga di comando bq sull'URL del file di riferimento.

Ad esempio, --reference_file_schema_uri="gs://mybucket/schema.avro".

Compressione Avro

BigQuery supporta i seguenti codec di compressione per i contenuti dei file Avro:

  • Snappy
  • DEFLATE
  • ZSTD

Caricamento di dati Avro in una nuova tabella

Per caricare i dati Avro da Cloud Storage in una nuova tabella BigQuery, seleziona una delle seguenti opzioni:

Console

  1. Nella console Google Cloud, apri la pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Spazio di esplorazione, espandi il progetto e seleziona un set di dati.

  3. Espandi l'opzione Azioni e fai clic su Apri.

  4. Nel riquadro dei dettagli, fai clic su Crea tabella .

  5. Nella sezione Origine della pagina Crea tabella:

    • In Crea tabella da, seleziona Google Cloud Storage.

    • Nel campo di origine, vai a o inserisci l'URI Cloud Storage. Tieni presente che non puoi includere più URI nella console Google Cloud, ma sono supportati i caratteri jolly. Il bucket Cloud Storage deve trovarsi nella stessa posizione del set di dati che contiene la tabella che stai creando.

      Seleziona file

    • Per Formato file, seleziona Avro.

  6. Nella sezione Destinazione della pagina Crea tabella:

    • Per Nome set di dati, scegli il set di dati appropriato.
    • Verifica che Tipo di tabella sia impostato su Tabella nativa.
    • Nel campo Nome tabella, inserisci il nome della tabella che stai creando in BigQuery.
  7. Nella sezione Schema, non è necessaria alcuna azione. Lo schema è autodescritto nei file Avro.

  8. (Facoltativo) Per partizionare la tabella, scegli le opzioni in Impostazioni di partizionamento e clustering. Per ulteriori informazioni, consulta Creare tabelle partizionate.

  9. (Facoltativo) Per Filtro di partizionamento, fai clic sulla casella Richiedi filtro di partizionamento per richiedere agli utenti di includere una clausola WHERE che specifichi le partizioni su cui eseguire la query. Se il filtro di partizionamento è obbligatorio, i costi possono essere ridotti e le prestazioni migliorate. Per ulteriori informazioni, consulta Esecuzione di query sulle tabelle partizionate. Questa opzione non è disponibile se è selezionata l'opzione Nessun partizionamento.

  10. (Facoltativo) Per raggruppare la tabella, inserisci da uno a quattro nomi di campo nella casella Ordine di raggruppamento.

  11. (Facoltativo) Fai clic su Opzioni avanzate.

    • In Preferenza di scrittura, lascia selezionata l'opzione Scrivere se vuota. Questa opzione crea una nuova tabella e vi carica i dati.
    • Per Valori sconosciuti, lascia deselezionata l'opzione Ignora valori sconosciuti. Questa opzione si applica solo ai file CSV e JSON.
    • Per Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
  12. Fai clic su Crea tabella.

SQL

Utilizza l'istruzione DDL LOAD DATA. Nell'esempio seguente viene caricato un file Avro nella nuova tabella mytable:

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nell'editor di query, inserisci la seguente istruzione:

    LOAD DATA OVERWRITE mydataset.mytable
    FROM FILES (
      format = 'avro',
      uris = ['gs://bucket/path/file.avro']);

  3. Fai clic su Esegui.

Per ulteriori informazioni su come eseguire query, consulta Eseguire una query interattiva.

bq

Utilizza il comando bq load, specifica AVRO utilizzando il flag --source_format e includi un URI Cloud Storage. Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI contenente un carattere jolly.

(Facoltativo) Fornisci il flag --location e imposta il valore sulla tua posizione.

Altri flag facoltativi sono:

  • --time_partitioning_type: attiva il partizionamento in base al tempo in una tabella e imposta il tipo di partizione. I valori possibili sono HOUR, DAY, MONTH e YEAR. Questo flag è facoltativo quando crei una tabella partizionata in base a una colonna DATE, DATETIME o TIMESTAMP. Il tipo di partizione predefinito per il partizionamento in base al tempo è DAY. Non puoi modificare la specifica di partizione di una tabella esistente.
  • --time_partitioning_expiration: un numero intero che specifica (in secondi) quando deve essere eliminata una partizione basata sul tempo. L'ora di scadenza viene valutata in base alla data UTC della partizione più il valore intero.
  • --time_partitioning_field: la colonna DATE o TIMESTAMP utilizzata per creare una tabella partizionata. Se il partizionamento in base al tempo è abilitato senza questo valore, viene creata una tabella partizionata per data di importazione.
  • --require_partition_filter: se abilitata, questa opzione richiede agli utenti di includere una clausola WHERE che specifichi le partizioni su cui eseguire query. Se il filtro di partizionamento è obbligatorio, i costi possono essere ridotti e le prestazioni migliorate. Per ulteriori informazioni, consulta la pagina Esecuzione di query sulle tabelle partizionate.
  • --clustering_fields: un elenco separato da virgole di massimo quattro nomi di colonna utilizzati per creare una tabella raggruppata.
  • --destination_kms_key: la chiave Cloud KMS per la crittografia dei dati della tabella.

    Per ulteriori informazioni sulle tabelle partizionate, consulta:

    Per ulteriori informazioni sulle tabelle cluster, consulta:

    Per ulteriori informazioni sulla crittografia delle tabelle, consulta:

Per caricare i dati Avro in BigQuery, inserisci il seguente comando:

bq --location=location load \
--source_format=format \
dataset.table \
path_to_source

Sostituisci quanto segue:

  • location è la tua posizione. Il flag --location è facoltativo. Ad esempio, se utilizzi BigQuery nella regione di Tokyo, puoi impostare il valore del flag su asia-northeast1. Puoi impostare un valore predefinito per la posizione utilizzando il file.bigqueryrc.
  • format è pari a AVRO.
  • dataset è un set di dati esistente.
  • table è il nome della tabella in cui stai caricando i dati.
  • path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.

Esempi:

Il seguente comando carica i dati da gs://mybucket/mydata.avro in una tabella denominata mytable in mydataset.

    bq load \
    --source_format=AVRO \
    mydataset.mytable \
    gs://mybucket/mydata.avro

Il seguente comando carica i dati da gs://mybucket/mydata.avro in una tabella partizionata per data di importazione;importazione denominata mytable in mydataset.

    bq load \
    --source_format=AVRO \
    --time_partitioning_type=DAY \
    mydataset.mytable \
    gs://mybucket/mydata.avro

Il seguente comando carica i dati da gs://mybucket/mydata.avro in una nuova tabella partizionata denominata mytable in mydataset. La tabella è partizionata in base alla colonna mytimestamp.

    bq load \
    --source_format=AVRO \
    --time_partitioning_field mytimestamp \
    mydataset.mytable \
    gs://mybucket/mydata.avro

Il seguente comando carica i dati da più file in gs://mybucket/ in una tabella denominata mytable in mydataset. L'URI Cloud Storage utilizza un'espressione generica.

    bq load \
    --source_format=AVRO \
    mydataset.mytable \
    gs://mybucket/mydata*.avro

Il seguente comando carica i dati da più file in gs://mybucket/ in una tabella denominata mytable in mydataset. Il comando include un elenco di URI di Cloud Storage con caratteri jolly separati da virgole.

    bq load \
    --source_format=AVRO \
    mydataset.mytable \
    "gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"

API

  1. Crea un job load che indichi i dati di origine in Cloud Storage.

  2. (Facoltativo) Specifica la tua posizione nella proprietà location della sezione jobReference della risorsa job.

  3. La proprietà source URIs deve essere completamente qualificata, nel formato gs://bucket/object. Ogni URI può contenere un carattere jolly "*".

  4. Specifica il formato dei dati Avro impostando la proprietà sourceFormat su AVRO.

  5. Per controllare lo stato del job, chiama jobs.get(job_id*), dove job_id è l'ID del job restituito dalla richiesta iniziale.

    • Se status.state = DONE, il job è stato completato correttamente.
    • Se la proprietà status.errorResult è presente, la richiesta non è riuscita e l'oggetto includerà informazioni che descrivono il problema. Quando una richiesta non va a buon fine, non viene creata alcuna tabella e non vengono caricati dati.
    • Se status.errorResult non è presente, il job è stato completato correttamente, anche se potrebbero essere stati rilevati alcuni errori non fatali, ad esempio problemi di importazione di alcune righe. Gli errori non irreversibili sono elencati nella proprietà status.errors dell'oggetto job restituito.

Note sull'API:

  • I job di caricamento sono atomici e coerenti; se un job di caricamento non va a buon fine, nessuno dei dati è disponibile e, se un job di caricamento va a buon fine, tutti i dati sono disponibili.

  • Come best practice, genera un ID univoco e passalo come jobReference.jobId quando chiami jobs.insert per creare un job di caricamento. Questo approccio è più robusto in caso di errori di rete perché il client può eseguire poll o ritentare con l'ID job noto.

  • La chiamata a jobs.insert su un determinato ID job è idempotente. Puoi riprovare tutte le volte che vuoi con lo stesso ID job e al massimo una di queste operazioni andrà a buon fine.

Vai

Prima di provare questo esempio, segui le istruzioni di configurazione Go riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Go.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// importAvro demonstrates loading Apache Avro data from Cloud Storage into a table.
func importAvro(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	gcsRef := bigquery.NewGCSReference("gs://cloud-samples-data/bigquery/us-states/us-states.avro")
	gcsRef.SourceFormat = bigquery.Avro
	loader := client.Dataset(datasetID).Table(tableID).LoaderFrom(gcsRef)

	job, err := loader.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}

	if status.Err() != nil {
		return fmt.Errorf("job completed with error: %v", status.Err())
	}
	return nil
}

Java

Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.FormatOptions;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.LoadJobConfiguration;
import com.google.cloud.bigquery.TableId;

// Sample to load Avro data from Cloud Storage into a new BigQuery table
public class LoadAvroFromGCS {

  public static void runLoadAvroFromGCS() {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    String sourceUri = "gs://cloud-samples-data/bigquery/us-states/us-states.avro";
    loadAvroFromGCS(datasetName, tableName, sourceUri);
  }

  public static void loadAvroFromGCS(String datasetName, String tableName, String sourceUri) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      TableId tableId = TableId.of(datasetName, tableName);
      LoadJobConfiguration loadConfig =
          LoadJobConfiguration.of(tableId, sourceUri, FormatOptions.avro());

      // Load data from a GCS Avro file into the table
      Job job = bigquery.create(JobInfo.of(loadConfig));
      // Blocks until this load table job completes its execution, either failing or succeeding.
      job = job.waitFor();
      if (job.isDone()) {
        System.out.println("Avro from GCS successfully loaded in a table");
      } else {
        System.out.println(
            "BigQuery was unable to load into the table due to an error:"
                + job.getStatus().getError());
      }
    } catch (BigQueryException | InterruptedException e) {
      System.out.println("Column not added during load append \n" + e.toString());
    }
  }
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Node.js.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

// Import the Google Cloud client libraries
const {BigQuery} = require('@google-cloud/bigquery');
const {Storage} = require('@google-cloud/storage');

// Instantiate clients
const bigquery = new BigQuery();
const storage = new Storage();

/**
 * This sample loads the Avro file at
 * https://storage.googleapis.com/cloud-samples-data/bigquery/us-states/us-states.avro
 *
 * TODO(developer): Replace the following lines with the path to your file.
 */
const bucketName = 'cloud-samples-data';
const filename = 'bigquery/us-states/us-states.avro';

async function loadTableGCSAvro() {
  // Imports a GCS file into a table with Avro source format.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = 'my_dataset';
  // const tableId = 'us_states';

  // Configure the load job. For full list of options, see:
  // https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#JobConfigurationLoad
  const jobConfigurationLoad = {
    load: {sourceFormat: 'AVRO'},
  };

  // Load data from a Google Cloud Storage file into the table
  const [job] = await bigquery
    .dataset(datasetId)
    .table(tableId)
    .load(storage.bucket(bucketName).file(filename), jobConfigurationLoad);

  // load() waits for the job to finish
  console.log(`Job ${job.id} completed.`);

  // Check the job's status for errors
  const errors = job.status.errors;
  if (errors && errors.length > 0) {
    throw errors;
  }
}

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the table to create.
# table_id = "your-project.your_dataset.your_table_name

job_config = bigquery.LoadJobConfig(source_format=bigquery.SourceFormat.AVRO)
uri = "gs://cloud-samples-data/bigquery/us-states/us-states.avro"

load_job = client.load_table_from_uri(
    uri, table_id, job_config=job_config
)  # Make an API request.

load_job.result()  # Waits for the job to complete.

destination_table = client.get_table(table_id)
print("Loaded {} rows.".format(destination_table.num_rows))

Estrarre dati JSON dai dati Avro

Esistono due modi per assicurarti che i dati Avro vengano caricati in BigQuery come dati JSON:

  1. Annota lo schema Avro con sqlType impostato su JSON. Ad esempio, se carichi i dati con lo schema Avro riportato di seguito, la colonna json_field viene letta come tipo JSON:

    {
        "type": {"type": "string", "sqlType": "JSON"},
        "name": "json_field"
    }
  2. Specifica esplicitamente lo schema della tabella di destinazione BigQuery e imposta il tipo di colonna su JSON. Per ulteriori informazioni, consulta la sezione Specificare uno schema.

Se non specifichi JSON come tipo nello schema Avro o nello schema della tabella BigQuery, i dati verranno letti come STRING.

Aggiunta o sovrascrittura di una tabella con dati Avro

Puoi caricare dati aggiuntivi in una tabella dai file di origine o aggiungendo i risultati delle query.

Nella console Google Cloud, utilizza l'opzione Preferenza di scrittura per specificare quale azione eseguire quando carichi i dati da un file di origine o da un risultato di query.

Quando carichi dati aggiuntivi in una tabella, hai le seguenti opzioni:

Opzione della console Flag dello strumento bq Proprietà dell'API BigQuery Descrizione
Scrivi se vuota Non supportata WRITE_EMPTY Scrive i dati solo se la tabella è vuota.
Aggiungi a tabella --noreplace o --replace=false; se --[no]replace non è specificato, il valore predefinito è append WRITE_APPEND (Valore predefinito) Collega i dati alla fine della tabella.
Sovrascrivi tabella --replace o --replace=true WRITE_TRUNCATE Cancella tutti i dati esistenti in una tabella prima di scrivere i nuovi dati. Questa azione elimina anche lo schema della tabella, la sicurezza a livello di riga e rimuove qualsiasi chiave Cloud KMS.

Se carichi i dati in una tabella esistente, il job di caricamento può aggiungerli o sovrascrivere la tabella.

Per accodare o sovrascrivere una tabella con dati Avro:

Console

  1. Nella console Google Cloud, apri la pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Spazio di esplorazione, espandi il progetto e seleziona un set di dati.

  3. Espandi l'opzione Azioni e fai clic su Apri.

  4. Nel riquadro dei dettagli, fai clic su Crea tabella .

  5. Nella sezione Origine della pagina Crea tabella:

    • In Crea tabella da, seleziona Cloud Storage.
    • Nel campo di origine, vai all'URI Cloud Storage o inseriscilo. Tieni presente che non puoi includere più URI nella console Google Cloud, ma sono supportati i caratteri jolly. Il bucket Cloud Storage deve trovarsi nella stessa posizione del set di dati contenente la tabella che stai aggiungendo o sovrascrivendo.

      Seleziona file

    • Per Formato file, seleziona Avro.

  6. Nella sezione Destinazione della pagina Crea tabella:

    • Per Nome set di dati, scegli il set di dati appropriato.

      Seleziona set di dati

    • Nel campo Nome tabella, inserisci il nome della tabella che stai aggiungendo o sovrascrivendo in BigQuery.

    • Verifica che Tipo di tabella sia impostato su Tabella nativa.

  7. Nella sezione Schema, non è necessaria alcuna azione. Lo schema è autodescritto nei file Avro.

  8. Per Impostazioni di partizionamento e clustering, lascia i valori predefiniti. Non puoi convertire una tabella in una tabella partizionata o in cluster aggiungendovi elementi o sovrascrivendola e la console Google Cloud non supporta l'aggiunta o la sovrascrittura di tabelle partizionate o in cluster in un job di caricamento.

  9. Fai clic su Opzioni avanzate.

    • Per Preferenza di scrittura, scegli Aggiungi alla tabella o Sostituisci tabella.
    • Per Valori sconosciuti, lascia deselezionata l'opzione Ignora valori sconosciuti. Questa opzione si applica solo ai file CSV e JSON.
    • Per Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
  10. Fai clic su Crea tabella.

SQL

Utilizza l'istruzione DDL LOAD DATA. L'esempio seguente aggiunge un file Avro alla tabella mytable:

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nell'editor di query, inserisci la seguente istruzione:

    LOAD DATA INTO mydataset.mytable
    FROM FILES (
      format = 'avro',
      uris = ['gs://bucket/path/file.avro']);

  3. Fai clic su Esegui.

Per ulteriori informazioni su come eseguire query, consulta Eseguire una query interattiva.

bq

Inserisci il comando bq load con il flag --replace per sovrascrivere la tabella. Utilizza il flag --noreplace per accodare i dati alla tabella. Se non viene specificato alcun flag, per impostazione predefinita i dati vengono aggiunti alla fine. Fornisci il flag --source_format e impostalo su AVRO. Poiché gli schemi Avro vengono recuperati automaticamente dai dati di origine autodescrittivi, non è necessario fornire una definizione dello schema.

(Facoltativo) Fornisci il flag --location e imposta il valore sulla tua posizione.

Altri flag facoltativi sono:

  • --destination_kms_key: la chiave Cloud KMS per la crittografia dei dati della tabella.
bq --location=location load \
--[no]replace \
--source_format=format \
dataset.table \
path_to_source

Sostituisci quanto segue:

  • location è la tua posizione. Il flag --location è facoltativo. Puoi impostare un valore predefinito per la posizione utilizzando il file.bigqueryrc.
  • format è pari a AVRO.
  • dataset è un set di dati esistente.
  • table è il nome della tabella in cui stai caricando i dati.
  • path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.

Esempi:

Il seguente comando carica i dati da gs://mybucket/mydata.avro e sovrascrive una tabella denominata mytable in mydataset.

    bq load \
    --replace \
    --source_format=AVRO \
    mydataset.mytable \
    gs://mybucket/mydata.avro

Il seguente comando carica i dati da gs://mybucket/mydata.avro e li aggiunge a una tabella denominata mytable in mydataset.

    bq load \
    --noreplace \
    --source_format=AVRO \
    mydataset.mytable \
    gs://mybucket/mydata.avro

Per informazioni su come accodare e sovrascrivere le tabelle partizionate utilizzando lo strumento a riga di comando bq, consulta Aggiunta e sovrascrittura dei tabella partizionata partizionate.

API

  1. Crea un job load che indichi i dati di origine in Cloud Storage.

  2. (Facoltativo) Specifica la tua posizione nella proprietà location della sezione jobReference della risorsa job.

  3. La proprietà source URIs deve essere completa, nel formato gs://bucket/object. Puoi includere più URI come elenco separato da virgole. Tieni presente che sono supportati anche i caratteri jolly.

  4. Specifica il formato dei dati impostando la proprietà configuration.load.sourceFormat su AVRO.

  5. Specifica la preferenza di scrittura impostando la proprietà configuration.load.writeDisposition su WRITE_TRUNCATE o WRITE_APPEND.

Vai

Prima di provare questo esempio, segui le istruzioni di configurazione Go riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Go.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// importAvroTruncate demonstrates loading Apache Avro data from Cloud Storage into a table
// and overwriting/truncating existing data in the table.
func importAvroTruncate(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	gcsRef := bigquery.NewGCSReference("gs://cloud-samples-data/bigquery/us-states/us-states.avro")
	gcsRef.SourceFormat = bigquery.Avro
	loader := client.Dataset(datasetID).Table(tableID).LoaderFrom(gcsRef)
	// Default for import jobs is to append data to a table.  WriteTruncate
	// specifies that existing data should instead be replaced/overwritten.
	loader.WriteDisposition = bigquery.WriteTruncate

	job, err := loader.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}

	if status.Err() != nil {
		return fmt.Errorf("job completed with error: %v", status.Err())
	}
	return nil
}

Java

Prima di provare questo esempio, segui le istruzioni di configurazione Java riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Java.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.FormatOptions;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.LoadJobConfiguration;
import com.google.cloud.bigquery.TableId;

// Sample to overwrite the BigQuery table data by loading a AVRO file from GCS
public class LoadAvroFromGCSTruncate {

  public static void runLoadAvroFromGCSTruncate() {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    String sourceUri = "gs://cloud-samples-data/bigquery/us-states/us-states.avro";
    loadAvroFromGCSTruncate(datasetName, tableName, sourceUri);
  }

  public static void loadAvroFromGCSTruncate(
      String datasetName, String tableName, String sourceUri) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      TableId tableId = TableId.of(datasetName, tableName);
      LoadJobConfiguration loadConfig =
          LoadJobConfiguration.newBuilder(tableId, sourceUri)
              .setFormatOptions(FormatOptions.avro())
              // Set the write disposition to overwrite existing table data
              .setWriteDisposition(JobInfo.WriteDisposition.WRITE_TRUNCATE)
              .build();

      // Load data from a GCS Avro file into the table
      Job job = bigquery.create(JobInfo.of(loadConfig));
      // Blocks until this load table job completes its execution, either failing or succeeding.
      job = job.waitFor();
      if (job.isDone()) {
        System.out.println("Table is successfully overwritten by AVRO file loaded from GCS");
      } else {
        System.out.println(
            "BigQuery was unable to load into the table due to an error:"
                + job.getStatus().getError());
      }
    } catch (BigQueryException | InterruptedException e) {
      System.out.println("Column not added during load append \n" + e.toString());
    }
  }
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Node.js.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

// Import the Google Cloud client libraries
const {BigQuery} = require('@google-cloud/bigquery');
const {Storage} = require('@google-cloud/storage');

// Instantiate clients
const bigquery = new BigQuery();
const storage = new Storage();

/**
 * This sample loads the Avro file at
 * https://storage.googleapis.com/cloud-samples-data/bigquery/us-states/us-states.avro
 *
 * TODO(developer): Replace the following lines with the path to your file.
 */
const bucketName = 'cloud-samples-data';
const filename = 'bigquery/us-states/us-states.avro';

async function loadTableGCSAvroTruncate() {
  /**
   * Imports a GCS file into a table and overwrites
   * table data if table already exists.
   */

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = 'my_dataset';
  // const tableId = 'us_states';

  // Configure the load job. For full list of options, see:
  // https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#JobConfigurationLoad
  const jobConfigurationLoad = {
    load: {
      sourceFormat: 'AVRO',
      writeDisposition: 'WRITE_TRUNCATE',
    },
  };

  // Load data from a Google Cloud Storage file into the table
  const [job] = await bigquery
    .dataset(datasetId)
    .table(tableId)
    .load(storage.bucket(bucketName).file(filename), jobConfigurationLoad);

  // load() waits for the job to finish
  console.log(`Job ${job.id} completed.`);

  // Check the job's status for errors
  const errors = job.status.errors;
  if (errors && errors.length > 0) {
    throw errors;
  }
}

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Python.

Per autenticarti in BigQuery, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

import io

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the table to create.
# table_id = "your-project.your_dataset.your_table_name

job_config = bigquery.LoadJobConfig(
    schema=[
        bigquery.SchemaField("name", "STRING"),
        bigquery.SchemaField("post_abbr", "STRING"),
    ],
)

body = io.BytesIO(b"Washington,WA")
client.load_table_from_file(body, table_id, job_config=job_config).result()
previous_rows = client.get_table(table_id).num_rows
assert previous_rows > 0

job_config = bigquery.LoadJobConfig(
    write_disposition=bigquery.WriteDisposition.WRITE_TRUNCATE,
    source_format=bigquery.SourceFormat.AVRO,
)

uri = "gs://cloud-samples-data/bigquery/us-states/us-states.avro"
load_job = client.load_table_from_uri(
    uri, table_id, job_config=job_config
)  # Make an API request.

load_job.result()  # Waits for the job to complete.

destination_table = client.get_table(table_id)
print("Loaded {} rows.".format(destination_table.num_rows))

Caricamento di dati Avro partizionati Hive

BigQuery supporta il caricamento dei dati Avro partizionati di Hive archiviati su Cloud Storage e compila le colonne di partizione di Hive come colonne nella tabella gestita BigQuery di destinazione. Per maggiori informazioni, consulta Caricare dati partizionati esternamente da Cloud Storage.

Conversioni Avro

BigQuery converte i tipi di dati Avro nei seguenti tipi di dati BigQuery:

Tipi primitivi

Tipo di dati Avro senza attributo logicalType Tipo di dati BigQuery Note
null BigQuery ignora questi valori
boolean BOOLEANO
int INTEGER
Lungo INTEGER
float FLOAT
double FLOAT
byte BYTES
string STRING Solo UTF-8

Tipi logici

Per impostazione predefinita, BigQuery ignora l'attributo logicalType per la maggior parte delle tipologie e utilizza invece il tipo Avro sottostante. Per convertire i tipi logici Avro nei tipi di dati BigQuery corrispondenti, imposta il flag --use_avro_logical_types su true utilizzando lo strumento a riga di comando bq oppure imposta la proprietà useAvroLogicalTypes nella risorsa job quando chiami il metodo jobs.insert per creare un job di caricamento.

La tabella seguente mostra la conversione dei tipi logici Avro in tipi di dati BigQuery.

Tipo logico Avro Tipo di dati BigQuery: tipo logico disabilitato Tipo di dati BigQuery: tipo logico abilitato
data INTEGER DATA
time-millis INTEGER TEMPO
time-micros NUMERO INTERO (convertito da LONG) TEMPO
timestamp-millis NUMERO INTERO (convertito da LONG) TIMESTAMP
timestamp-micros NUMERO INTERO (convertito da LONG) TIMESTAMP
timestamp-locale-millis NUMERO INTERO (convertito da LONG) DATETIME
timestamp-micros-locale NUMERO INTERO (convertito da LONG) DATETIME
duration BYTES (convertito dal tipo fixed di dimensione 12) BYTES (convertito dal tipo fixed di dimensione 12)
decimal NUMERIC, BIGNUMERIC o STRING (vedi Tipo logico decimale) NUMERIC, BIGNUMERIC o STRING (vedi Tipo logico decimale)

Per ulteriori informazioni sui tipi di dati Avro, consulta la specifica Apache Avro™ 1.8.2.

Tipo logico Data

In qualsiasi file Avro che intendi caricare, devi specificare i tipi logici delle date nel seguente formato:

{
       "type": {"logicalType": "date", "type": "int"},
       "name": "date_field"
}

Tipo logico decimale

I tipi logici Decimal possono essere convertiti in tipi NUMERIC, BIGNUMERIC o STRING. Il tipo convertito dipende dai parametri di precisione e scala del tipo logico decimal e dai tipi di target decimali specificati. Specifica il tipo di destinazione decimale come segue:

Per la compatibilità con le versioni precedenti, se i tipi di destinazione decimali non sono specificati, puoi caricare un file Avro contenente una colonna bytes con il tipo logico decimal in una colonna BYTES di una tabella esistente. In questo caso, il tipo logico decimal nella colonna del file Avro viene ignorato. Questa modalità di conversione è deprecata e potrebbe essere rimossa in futuro.

Per ulteriori informazioni sul tipo logico Avro decimal, consulta la specifica Apache Avro™ 1.8.2.

Tipo logico di tempo

In qualsiasi file Avro che intendi caricare, devi specificare i tipi logici di tempo in uno dei seguenti formati.

Per una precisione in millisecondi:

{
       "type": {"logicalType": "time-millis", "type": "int"},
       "name": "time_millis_field"
}

Per una precisione in microsecondi:

{
       "type": {"logicalType": "time-micros", "type": "int"},
       "name": "time_micros_field"
}

Tipo logico timestamp

In qualsiasi file Avro che intendi caricare, devi specificare i tipi logici dei timestamp in uno dei seguenti formati.

Per una precisione in millisecondi:

{
       "type": {"logicalType": "timestamp-millis", "type": "long"},
       "name": "timestamp_millis_field"
}

Per una precisione in microsecondi:

{
       "type": {"logicalType": "timestamp-micros", "type": "long"},
       "name": "timestamp_micros_field"
}

Tipo logico Timestamp locale

In qualsiasi file Avro che intendi caricare, devi specificare un tipo logico timestamp-local in uno dei seguenti formati.

Per una precisione in millisecondi:

{
       "type": {"logicalType": "local-timestamp-millis", "type": "long"},
       "name": "local_timestamp_millis_field"
}

Per una precisione in microsecondi:

{
       "type": {"logicalType": "local-timestamp-micros", "type": "long"},
       "name": "local_timestamp_micros_field"
}

Tipi complessi

Tipo di dati Avro Tipo di dati BigQuery Note
disco RECORD
  • Gli alias vengono ignorati
  • Il documento viene convertito in una descrizione del campo
  • I valori predefiniti vengono impostati al momento della lettura
  • L'ordine viene ignorato
  • I campi ricorsivi vengono eliminati: per i campi ricorsivi viene mantenuto solo il primo livello di nidificazione
enum STRING
  • La stringa è il valore simbolico dell'enum
  • Gli alias vengono ignorati
  • Il documento viene convertito in una descrizione del campo
matrice campi ripetuti Gli array di array non sono supportati. Gli array contenenti solo tipi NULL vengono ignorati.
map<T> RECORD BigQuery converte un campo map<T> Avro in un RECORD ripetuto che contiene due campi: una chiave e un valore. BigQuery memorizza la chiave come STRINGA e converte il valore nel corrispondente tipo di dati in BigQuery.
unione
  • Campo facoltativo
  • RECORD con un elenco di campi con valori null
  • Quando l'unione ha un solo tipo non null, viene convertito in un campo nullable.
  • In caso contrario, viene convertito in un RECORD con un elenco di campi con valori null. Al momento della lettura verrà impostato solo uno di questi campi.
fisso BYTES
  • Gli alias vengono ignorati
  • La dimensione viene ignorata

Limitazioni

  • La formattazione degli array nidificati non è supportata in BigQuery. I file Avro che utilizzano questo formato devono essere convertiti prima dell'importazione.
  • In un file Avro, i nomi e gli spazi dei nomi per un nome completo possono contenere solo caratteri alfanumerici e il carattere trattino basso _. La seguente espressione regolare mostra i caratteri consentiti: [A-Za-z_][A-Za-z0-9_]*

Per ulteriori informazioni, consulta Limiti dei job di caricamento di BigQuery.