Caricamento dei dati CSV da Cloud Storage

Quando carichi dati CSV da Cloud Storage, puoi caricarli in una nuova tabella o partizione oppure aggiungere o sovrascrivere una tabella o una partizione esistente. Quando i dati vengono caricati in BigQuery, vengono convertiti in formato a colonne per Condensatore (il formato di archiviazione di BigQuery).

Quando carichi i dati da Cloud Storage in una tabella BigQuery, il set di dati che contiene la tabella deve trovarsi nella stessa località a singola regione o a più regioni del bucket Cloud Storage.

Per informazioni sul caricamento dei dati CSV da un file locale, consulta Caricare dati in BigQuery da un'origine dati locale.

Provalo

Se non hai mai utilizzato Google Cloud, crea un account per valutare le prestazioni di BigQuery in scenari reali. I nuovi clienti ricevono anche 300 $ di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.

Prova BigQuery gratuitamente

Limitazioni

Sei soggetto alle seguenti limitazioni quando carichi dati in BigQuery da un bucket Cloud Storage:

  • Se la località del set di dati è impostata su un valore diverso dall'area multiregionale US, il bucket Cloud Storage deve trovarsi nella stessa regione o all'interno della stessa area multiregionale del set di dati.
  • BigQuery non garantisce la coerenza dei dati per le origini dati esterne. Le modifiche ai dati sottostanti durante l'esecuzione di una query possono causare comportamenti imprevisti.
  • BigQuery non supporta il controllo delle versioni degli oggetti Cloud Storage. Se includi un numero di generazione nell'URI Cloud Storage, il job di caricamento non riesce.

Quando carichi file CSV in BigQuery, tieni presente quanto segue:

  • I file CSV non supportano dati nidificati o ripetuti.
  • Rimuovi i caratteri BOM (Byte Order Mark). Potrebbero causare problemi imprevisti.
  • Se utilizzi la compressione gzip, BigQuery non può leggere i dati in parallelo. Il caricamento di dati CSV compressi in BigQuery è più lento rispetto a quelli non compressi. Consulta la sezione Caricamento di dati compressi e non compressi.
  • Non puoi includere file compressi e non compressi nello stesso job di caricamento.
  • La dimensione massima di un file gzip è 4 GB.
  • Il caricamento dei dati CSV utilizzando il rilevamento automatico dello schema non rileva automaticamente le intestazioni se tutte le colonne sono di tipo stringa. In questo caso, aggiungi una colonna numerica all'input o dichiara lo schema esplicitamente.
  • Quando carichi dati CSV o JSON, i valori nelle colonne DATE devono utilizzare il separatore trattino (-) e la data deve avere il seguente formato: YYYY-MM-DD (anno-mese-giorno).
  • Quando carichi dati JSON o CSV, i valori nelle colonne TIMESTAMP devono utilizzare un trattino (-) o una barra (/) come separatore per la data del timestamp e la data deve essere in uno dei seguenti formati: YYYY-MM-DD (anno-mese-giorno) o YYYY/MM/DD (anno/mese/giorno). La parte hh:mm:ss (ora-minuti-secondi) del timestamp deve utilizzare un separatore dei due punti (:).
  • I file devono soddisfare i limiti delle dimensioni dei file CSV descritti nella pagina relativa ai limiti dei job di caricamento.

Prima di iniziare

Concedi ruoli IAM (Identity and Access Management) che concedono agli utenti le autorizzazioni necessarie per eseguire ogni attività in questo documento e crea un set di dati per archiviare i dati.

Autorizzazioni obbligatorie

Per caricare dati in BigQuery, devi disporre delle autorizzazioni IAM per eseguire un job di caricamento e caricare i dati nelle tabelle e nelle partizioni BigQuery. Se carichi dati da Cloud Storage, devi disporre anche delle autorizzazioni IAM per accedere al bucket che contiene i dati.

Autorizzazioni per caricare i dati in BigQuery

Per caricare i dati in una nuova tabella o partizione BigQuery oppure per aggiungere o sovrascrivere una tabella o una partizione esistente, devi disporre delle seguenti autorizzazioni IAM:

  • bigquery.tables.create
  • bigquery.tables.updateData
  • bigquery.tables.update
  • bigquery.jobs.create

Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per caricare i dati in una tabella o una partizione BigQuery:

  • roles/bigquery.dataEditor
  • roles/bigquery.dataOwner
  • roles/bigquery.admin (include l'autorizzazione bigquery.jobs.create)
  • bigquery.user (include l'autorizzazione bigquery.jobs.create)
  • bigquery.jobUser (include l'autorizzazione bigquery.jobs.create)

Inoltre, se disponi dell'autorizzazione bigquery.datasets.create, puoi creare e aggiornare le tabelle utilizzando un job di caricamento nei set di dati che crei.

Per ulteriori informazioni su ruoli e autorizzazioni IAM in BigQuery, vedi Ruoli e autorizzazioni predefiniti.

Autorizzazioni per caricare i dati da Cloud Storage

Per ottenere le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage, chiedi all'amministratore di concederti il ruolo IAM Storage Admin (roles/storage.admin) per il bucket. Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso.

Questo ruolo predefinito contiene le autorizzazioni necessarie per caricare i dati da un bucket Cloud Storage. Per visualizzare esattamente le autorizzazioni necessarie, espandi la sezione Autorizzazioni obbligatorie:

Autorizzazioni obbligatorie

Per caricare i dati da un bucket Cloud Storage, sono necessarie le seguenti autorizzazioni:

  • storage.buckets.get
  • storage.objects.get
  • storage.objects.list (required if you are using a URI wildcard)

Potresti anche riuscire a ottenere queste autorizzazioni con i ruoli personalizzati o altri ruoli predefiniti.

crea un set di dati

Crea un set di dati BigQuery per archiviare i tuoi dati.

Compressione CSV

Puoi utilizzare l'utilità gzip per comprimere i file CSV. Tieni presente che gzip esegue la compressione completa dei file, a differenza della compressione dei contenuti dei file eseguita dai codec di compressione per altri formati file, ad esempio Avro. L'utilizzo di gzip per comprimere i file CSV potrebbe avere un impatto sulle prestazioni; per ulteriori informazioni sui compromessi, consulta Caricare dati compressi e non compressi.

Caricare dati CSV in una tabella

Per caricare i dati CSV da Cloud Storage in una nuova tabella BigQuery, seleziona una delle seguenti opzioni:

Console


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
  3. Nella sezione Informazioni sul set di dati, fai clic su Crea tabella.
  4. Nel riquadro Crea tabella, specifica i seguenti dettagli:
    1. Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da. Poi segui questi passaggi:
      1. Seleziona un file dal bucket Cloud Storage oppure inserisci l'URI Cloud Storage. Non puoi includere più URI nella console Google Cloud, ma sono supportati i caratteri jolly. Il bucket Cloud Storage deve trovarsi nella stessa località del set di dati che contiene la tabella da creare, aggiungere o sovrascrivere. seleziona il file di origine per creare una tabella BigQuery
      2. Per Formato file, seleziona CSV.
    2. Nella sezione Destinazione, specifica i seguenti dettagli:
      1. In Set di dati, seleziona il set di dati in cui vuoi creare la tabella.
      2. Nel campo Tabella, inserisci il nome della tabella da creare.
      3. Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
    3. Nella sezione Schema, inserisci la definizione dello schema. Per abilitare il rilevamento automatico di uno schema, seleziona Rilevamento automatico. Puoi inserire manualmente le informazioni sullo schema utilizzando uno dei seguenti metodi:
      • Opzione 1: fai clic su Modifica come testo e incolla lo schema sotto forma di array JSON. Quando utilizzi un array JSON, generi lo schema utilizzando la stessa procedura utilizzata per la creazione di un file di schema JSON. Puoi visualizzare lo schema di una tabella esistente in formato JSON inserendo il seguente comando:
            bq show --format=prettyjson dataset.table
            
      • Opzione 2: fai clic su Aggiungi campo e inserisci lo schema della tabella. Specifica Name, Type e Mode di ogni campo.
    4. (Facoltativo) Specifica le impostazioni di partizione e clustering. Per saperne di più, consulta Creazione di tabelle partizionate e Creazione e utilizzo di tabelle in cluster.
    5. Fai clic su Opzioni avanzate ed esegui le seguenti operazioni:
      • In Write preference (Preferenza di scrittura), lascia selezionata l'opzione Write if empty (Scrivi se vuoto). Questa opzione crea una nuova tabella e carica i dati al suo interno.
      • In Numero di errori consentiti, accetta il valore predefinito di 0 o inserisci il numero massimo di righe contenenti errori che può essere ignorato. Se il numero di righe con errori supera questo valore, il job genererà un messaggio invalid e avrà esito negativo. Questa opzione si applica solo ai file CSV e JSON.
      • Se vuoi ignorare i valori in una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
      • Per Delimitatore di campo, scegli il carattere che separa le celle nel file CSV: Virgola, Tab, Barra verticale o Personalizzato. Se scegli Personalizzato, inserisci il delimitatore nella casella Delimitatore di campo personalizzato. Il valore predefinito è Virgola.
      • In Righe di intestazione da saltare, inserisci il numero di righe di intestazione da saltare all'inizio del file CSV. Il valore predefinito è 0.
      • Per Nuovi righe tra virgolette, seleziona Consenti nuove righe tra virgolette per consentire le sezioni di dati tra virgolette che contengono caratteri di nuova riga in un file CSV. Il valore predefinito è false.
      • Per Righe frastagliate, seleziona Consenti righe frastagliate per accettare le righe nei file CSV in cui mancano le colonne facoltative finali. I valori mancanti vengono trattati come null. Se questa opzione è deselezionata, i record con colonne finali mancanti vengono trattati come record non validi e, se sono presenti troppi record non validi, nel risultato del job viene restituito un errore non valido. Il valore predefinito è false.
      • In Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
    6. Fai clic su Crea tabella.

SQL

Utilizza l'istruzione DDL LOAD DATA. L'esempio seguente carica un file CSV nella nuova tabella mytable:

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nell'editor query, inserisci la seguente istruzione:

    LOAD DATA OVERWRITE mydataset.mytable
    (x INT64,y STRING)
    FROM FILES (
      format = 'CSV',
      uris = ['gs://bucket/path/file.csv']);
    

  3. Fai clic su Esegui.

Per ulteriori informazioni su come eseguire le query, vedi Eseguire una query interattiva.

bq

Usa il comando bq load, specifica CSV con il flag --source_format e includi un URI Cloud Storage. Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI contenente un caratteri jolly. Fornisci lo schema in linea, in un file di definizione dello schema, oppure utilizza il rilevamento automatico dello schema. Se non specifichi uno schema, se --autodetect è false ed esiste la tabella di destinazione, viene utilizzato lo schema della tabella di destinazione.

(Facoltativo) Fornisci il flag --location e imposta il valore sulla tua posizione.

Altri flag facoltativi includono:

  • --allow_jagged_rows: se specificato, accetta le righe nei file CSV che mancano delle colonne facoltative finali. I valori mancanti vengono trattati come null. Se questa opzione è deselezionata, i record con colonne finali mancanti vengono trattati come record non validi e, se sono presenti troppi record non validi, nel risultato del job viene restituito un errore non valido. Il valore predefinito è false.
  • --allow_quoted_newlines: se specificato, consente le sezioni di dati tra virgolette che contengono caratteri di nuova riga in un file CSV. Il valore predefinito è false.
  • --field_delimiter: il carattere che indica il confine tra le colonne nei dati. \t e tab sono consentiti per i delimitatori di tabulazione. Il valore predefinito è ,.
  • --null_marker: una stringa personalizzata facoltativa che rappresenta un valore NULL nei dati CSV.
  • --skip_leading_rows: specifica il numero di righe di intestazione da saltare nella parte superiore del file CSV. Il valore predefinito è 0.
  • --quote: le virgolette da utilizzare per racchiudere i record. Il valore predefinito è ". Per non indicare virgolette, utilizza una stringa vuota.
  • --max_bad_records: un numero intero che specifica il numero massimo di record non validi consentiti prima che l'intero job non vada a buon fine. Il valore predefinito è 0. Al massimo, vengono restituiti cinque errori di qualsiasi tipo a prescindere dal valore --max_bad_records.
  • --ignore_unknown_values: se specificato, consente e ignora valori aggiuntivi non riconosciuti nei dati CSV o JSON.
  • --autodetect: se specificato, attiva il rilevamento automatico dello schema per i dati CSV e JSON.
  • --time_partitioning_type: abilita il partizionamento in base al tempo in una tabella e imposta il tipo di partizione. I valori possibili sono HOUR, DAY, MONTH e YEAR. Questo flag è facoltativo quando crei una tabella partizionata in base a una colonna DATE, DATETIME o TIMESTAMP. Il tipo di partizione predefinito per il partizionamento basato sul tempo è DAY. Non puoi modificare la specifica di partizionamento su una tabella esistente.
  • --time_partitioning_expiration: un numero intero che specifica (in secondi) quando deve essere eliminata una partizione basata sul tempo. La scadenza corrisponde alla data UTC della partizione più il valore intero.
  • --time_partitioning_field: la colonna DATE o TIMESTAMP utilizzata per creare una tabella partizionata. Se il partizionamento basato sul tempo viene abilitato senza questo valore, viene creata unatabella partizionata per data di importazionee.
  • --require_partition_filter: quando abilitata, questa opzione richiede agli utenti di includere una clausola WHERE che specifichi le partizioni su cui eseguire la query. La richiesta di un filtro di partizionamento può ridurre i costi e migliorare le prestazioni. Per saperne di più, consulta Esecuzione di query su tabelle partizionate.
  • --clustering_fields: un elenco separato da virgole di massimo quattro nomi di colonna utilizzati per creare una tabella in cluster.
  • --destination_kms_key: la chiave Cloud KMS per la crittografia dei dati della tabella.
  • --column_name_character_map: definisce l'ambito e la gestione dei caratteri nei nomi delle colonne, con l'opzione di abilitare i nomi flessibili delle colonne. Richiede l'opzione --autodetect per i file CSV. Per maggiori informazioni, vedi load_option_list.

    Per ulteriori informazioni sul comando bq load, consulta:

    Per saperne di più sulle tabelle partizionate, consulta:

    Per ulteriori informazioni sulle tabelle in cluster, consulta:

    Per ulteriori informazioni sulla crittografia delle tabelle, consulta:

Per caricare i dati CSV in BigQuery, inserisci il comando seguente:

bq --location=location load \
--source_format=format \
dataset.table \
path_to_source \
schema

Dove:

  • location è la tua posizione. Il flag --location è facoltativo. Ad esempio, se utilizzi BigQuery nella regione di Tokyo, puoi impostare il valore del flag su asia-northeast1. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc.
  • format è pari a CSV.
  • dataset è un set di dati esistente.
  • table è il nome della tabella in cui vengono caricati i dati.
  • path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
  • schema è uno schema valido. Lo schema può essere un file JSON locale o può essere digitato in linea come parte del comando. Puoi anche utilizzare il flag --autodetect anziché fornire una definizione dello schema.

Esempi:

Il seguente comando carica i dati da gs://mybucket/mydata.csv in una tabella denominata mytable in mydataset. Lo schema viene definito in un file di schema locale denominato myschema.json.

    bq load \
    --source_format=CSV \
    mydataset.mytable \
    gs://mybucket/mydata.csv \
    ./myschema.json

Il seguente comando carica i dati da gs://mybucket/mydata.csv in una tabella denominata mytable in mydataset. Lo schema viene definito in un file di schema locale denominato myschema.json. Il file CSV include due righe di intestazione. Se --skip_leading_rows non è specificato, il comportamento predefinito prevede che il file non contenga intestazioni.

    bq load \
    --source_format=CSV \
    --skip_leading_rows=2
    mydataset.mytable \
    gs://mybucket/mydata.csv \
    ./myschema.json

Il seguente comando carica i dati da gs://mybucket/mydata.csv in una tabella partizionata per data di importazione denominata mytable in mydataset. Lo schema viene definito in un file di schema locale denominato myschema.json.

    bq load \
    --source_format=CSV \
    --time_partitioning_type=DAY \
    mydataset.mytable \
    gs://mybucket/mydata.csv \
    ./myschema.json

Il seguente comando carica i dati da gs://mybucket/mydata.csv in una nuova tabella partizionata denominata mytable in mydataset. La tabella è partizionata nella colonna mytimestamp. Lo schema è definito in un file di schema locale denominato myschema.json.

    bq load \
    --source_format=CSV \
    --time_partitioning_field mytimestamp \
    mydataset.mytable \
    gs://mybucket/mydata.csv \
    ./myschema.json

Il seguente comando carica i dati da gs://mybucket/mydata.csv in una tabella denominata mytable in mydataset. Lo schema viene rilevato automaticamente.

    bq load \
    --autodetect \
    --source_format=CSV \
    mydataset.mytable \
    gs://mybucket/mydata.csv

Il seguente comando carica i dati da gs://mybucket/mydata.csv in una tabella denominata mytable in mydataset. Lo schema è definito in linea nel formato field:data_type,field:data_type.

    bq load \
    --source_format=CSV \
    mydataset.mytable \
    gs://mybucket/mydata.csv \
    qtr:STRING,sales:FLOAT,year:STRING

Il seguente comando carica i dati da più file in gs://mybucket/ in una tabella denominata mytable in mydataset. L'URI Cloud Storage utilizza un carattere jolly. Lo schema viene rilevato automaticamente.

    bq load \
    --autodetect \
    --source_format=CSV \
    mydataset.mytable \
    gs://mybucket/mydata*.csv

Il seguente comando carica i dati da più file in gs://mybucket/ in una tabella denominata mytable in mydataset. Il comando include un elenco separato da virgole di URI di Cloud Storage con caratteri jolly. Lo schema viene definito in un file di schema locale denominato myschema.json.

    bq load \
    --source_format=CSV \
    mydataset.mytable \
    "gs://mybucket/00/*.csv","gs://mybucket/01/*.csv" \
    ./myschema.json

API

  1. Crea un job load che punti ai dati di origine in Cloud Storage.

  2. (Facoltativo) Specifica la tua località nella proprietà location nella sezione jobReference della risorsa job.

  3. La proprietà source URIs deve essere completa, nel formato gs://bucket/object. Ogni URI può contenere un carattere jolly '*'.

  4. Specifica il formato dei dati CSV impostando la proprietà sourceFormat su CSV.

  5. Per controllare lo stato del job, chiama jobs.get(job_id*), dove job_id è l'ID del job restituito dalla richiesta iniziale.

    • Se status.state = DONE, il job è stato completato correttamente.
    • Se è presente la proprietà status.errorResult, la richiesta non è andata a buon fine e l'oggetto includerà le informazioni che descrivono l'errore. Quando una richiesta non va a buon fine, non viene creata alcuna tabella e non vengono caricati dati.
    • Se status.errorResult non è presente, il job è stato completato correttamente, anche se potrebbero essersi verificati alcuni errori non irreversibili, come problemi nell'importazione di alcune righe. Gli errori non irreversibili sono elencati nella proprietà status.errors dell'oggetto job restituito.

Note API:

  • I job di caricamento sono atomici e coerenti. Se un job di caricamento non riesce, nessuno dei dati è disponibile e, se un job di caricamento ha esito positivo, sono disponibili tutti i dati.

  • Come best practice, genera un ID univoco e passalo come jobReference.jobId quando chiami jobs.insert per creare un job di caricamento. Questo approccio è più efficace per gli errori di rete perché il client può eseguire il polling o riprovare sull'ID job noto.

  • Chiamare jobs.insert su un determinato ID job è idempotente. Puoi riprovare tutte le volte che vuoi per lo stesso ID job e al massimo una di queste operazioni avrà esito positivo.

C#

Prima di provare questo esempio, segui le istruzioni per la configurazione di C# nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API C# di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.


using Google.Cloud.BigQuery.V2;
using System;

public class BigQueryLoadTableGcsCsv
{
    public void LoadTableGcsCsv(
        string projectId = "your-project-id",
        string datasetId = "your_dataset_id"
    )
    {
        BigQueryClient client = BigQueryClient.Create(projectId);
        var gcsURI = "gs://cloud-samples-data/bigquery/us-states/us-states.csv";
        var dataset = client.GetDataset(datasetId);
        var schema = new TableSchemaBuilder {
            { "name", BigQueryDbType.String },
            { "post_abbr", BigQueryDbType.String }
        }.Build();
        var destinationTableRef = dataset.GetTableReference(
            tableId: "us_states");
        // Create job configuration
        var jobOptions = new CreateLoadJobOptions()
        {
            // The source format defaults to CSV; line below is optional.
            SourceFormat = FileFormat.Csv,
            SkipLeadingRows = 1
        };
        // Create and run job
        var loadJob = client.CreateLoadJob(
            sourceUri: gcsURI, destination: destinationTableRef,
            schema: schema, options: jobOptions);
        loadJob = loadJob.PollUntilCompleted().ThrowOnAnyError();  // Waits for the job to complete.

        // Display the number of rows uploaded
        BigQueryTable table = client.GetTable(destinationTableRef);
        Console.WriteLine(
            $"Loaded {table.Resource.NumRows} rows to {table.FullyQualifiedId}");
    }
}

Go

Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Go di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// importCSVExplicitSchema demonstrates loading CSV data from Cloud Storage into a BigQuery
// table and providing an explicit schema for the data.
func importCSVExplicitSchema(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	gcsRef := bigquery.NewGCSReference("gs://cloud-samples-data/bigquery/us-states/us-states.csv")
	gcsRef.SkipLeadingRows = 1
	gcsRef.Schema = bigquery.Schema{
		{Name: "name", Type: bigquery.StringFieldType},
		{Name: "post_abbr", Type: bigquery.StringFieldType},
	}
	loader := client.Dataset(datasetID).Table(tableID).LoaderFrom(gcsRef)
	loader.WriteDisposition = bigquery.WriteEmpty

	job, err := loader.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}

	if status.Err() != nil {
		return fmt.Errorf("job completed with error: %v", status.Err())
	}
	return nil
}

Java

Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Java di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.CsvOptions;
import com.google.cloud.bigquery.Field;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.LoadJobConfiguration;
import com.google.cloud.bigquery.Schema;
import com.google.cloud.bigquery.StandardSQLTypeName;
import com.google.cloud.bigquery.TableId;

// Sample to load CSV data from Cloud Storage into a new BigQuery table
public class LoadCsvFromGcs {

  public static void runLoadCsvFromGcs() throws Exception {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    String sourceUri = "gs://cloud-samples-data/bigquery/us-states/us-states.csv";
    Schema schema =
        Schema.of(
            Field.of("name", StandardSQLTypeName.STRING),
            Field.of("post_abbr", StandardSQLTypeName.STRING));
    loadCsvFromGcs(datasetName, tableName, sourceUri, schema);
  }

  public static void loadCsvFromGcs(
      String datasetName, String tableName, String sourceUri, Schema schema) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      // Skip header row in the file.
      CsvOptions csvOptions = CsvOptions.newBuilder().setSkipLeadingRows(1).build();

      TableId tableId = TableId.of(datasetName, tableName);
      LoadJobConfiguration loadConfig =
          LoadJobConfiguration.newBuilder(tableId, sourceUri, csvOptions).setSchema(schema).build();

      // Load data from a GCS CSV file into the table
      Job job = bigquery.create(JobInfo.of(loadConfig));
      // Blocks until this load table job completes its execution, either failing or succeeding.
      job = job.waitFor();
      if (job.isDone()) {
        System.out.println("CSV from GCS successfully added during load append job");
      } else {
        System.out.println(
            "BigQuery was unable to load into the table due to an error:"
                + job.getStatus().getError());
      }
    } catch (BigQueryException | InterruptedException e) {
      System.out.println("Column not added during load append \n" + e.toString());
    }
  }
}

Node.js

Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Node.js di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

// Import the Google Cloud client libraries
const {BigQuery} = require('@google-cloud/bigquery');
const {Storage} = require('@google-cloud/storage');

// Instantiate clients
const bigquery = new BigQuery();
const storage = new Storage();

/**
 * This sample loads the CSV file at
 * https://storage.googleapis.com/cloud-samples-data/bigquery/us-states/us-states.csv
 *
 * TODO(developer): Replace the following lines with the path to your file.
 */
const bucketName = 'cloud-samples-data';
const filename = 'bigquery/us-states/us-states.csv';

async function loadCSVFromGCS() {
  // Imports a GCS file into a table with manually defined schema.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = 'my_dataset';
  // const tableId = 'my_table';

  // Configure the load job. For full list of options, see:
  // https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#JobConfigurationLoad
  const metadata = {
    sourceFormat: 'CSV',
    skipLeadingRows: 1,
    schema: {
      fields: [
        {name: 'name', type: 'STRING'},
        {name: 'post_abbr', type: 'STRING'},
      ],
    },
    location: 'US',
  };

  // Load data from a Google Cloud Storage file into the table
  const [job] = await bigquery
    .dataset(datasetId)
    .table(tableId)
    .load(storage.bucket(bucketName).file(filename), metadata);

  // load() waits for the job to finish
  console.log(`Job ${job.id} completed.`);

  // Check the job's status for errors
  const errors = job.status.errors;
  if (errors && errors.length > 0) {
    throw errors;
  }
}

PHP

Prima di provare questo esempio, segui le istruzioni per la configurazione di PHP nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API PHP di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

use Google\Cloud\BigQuery\BigQueryClient;
use Google\Cloud\Core\ExponentialBackoff;

/** Uncomment and populate these variables in your code */
// $projectId  = 'The Google project ID';
// $datasetId  = 'The BigQuery dataset ID';

// instantiate the bigquery table service
$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);
$dataset = $bigQuery->dataset($datasetId);
$table = $dataset->table('us_states');

// create the import job
$gcsUri = 'gs://cloud-samples-data/bigquery/us-states/us-states.csv';
$schema = [
    'fields' => [
        ['name' => 'name', 'type' => 'string'],
        ['name' => 'post_abbr', 'type' => 'string']
    ]
];
$loadConfig = $table->loadFromStorage($gcsUri)->schema($schema)->skipLeadingRows(1);
$job = $table->runJob($loadConfig);
// poll the job until it is complete
$backoff = new ExponentialBackoff(10);
$backoff->execute(function () use ($job) {
    print('Waiting for job to complete' . PHP_EOL);
    $job->reload();
    if (!$job->isComplete()) {
        throw new Exception('Job has not yet completed', 500);
    }
});
// check if the job has errors
if (isset($job->info()['status']['errorResult'])) {
    $error = $job->info()['status']['errorResult']['message'];
    printf('Error running job: %s' . PHP_EOL, $error);
} else {
    print('Data imported successfully' . PHP_EOL);
}

Python

Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

Utilizza il metodo Client.load_table_from_uri() per caricare i dati da un file CSV in Cloud Storage. Fornisci una definizione di schema esplicita impostando la proprietà LoadJobConfig.schema su un elenco di oggetti SchemaField.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the table to create.
# table_id = "your-project.your_dataset.your_table_name"

job_config = bigquery.LoadJobConfig(
    schema=[
        bigquery.SchemaField("name", "STRING"),
        bigquery.SchemaField("post_abbr", "STRING"),
    ],
    skip_leading_rows=1,
    # The source format defaults to CSV, so the line below is optional.
    source_format=bigquery.SourceFormat.CSV,
)
uri = "gs://cloud-samples-data/bigquery/us-states/us-states.csv"

load_job = client.load_table_from_uri(
    uri, table_id, job_config=job_config
)  # Make an API request.

load_job.result()  # Waits for the job to complete.

destination_table = client.get_table(table_id)  # Make an API request.
print("Loaded {} rows.".format(destination_table.num_rows))

Ruby

Prima di provare questo esempio, segui le istruzioni per la configurazione di Ruby nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Ruby di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

require "google/cloud/bigquery"

def load_table_gcs_csv dataset_id = "your_dataset_id"
  bigquery = Google::Cloud::Bigquery.new
  dataset  = bigquery.dataset dataset_id
  gcs_uri  = "gs://cloud-samples-data/bigquery/us-states/us-states.csv"
  table_id = "us_states"

  load_job = dataset.load_job table_id, gcs_uri, skip_leading: 1 do |schema|
    schema.string "name"
    schema.string "post_abbr"
  end
  puts "Starting job #{load_job.job_id}"

  load_job.wait_until_done! # Waits for table load to complete.
  puts "Job finished."

  table = dataset.table table_id
  puts "Loaded #{table.rows_count} rows to table #{table.id}"
end

Caricare dati CSV in una tabella che utilizza il partizionamento temporale in base a colonne

Per caricare dati CSV da Cloud Storage in una tabella BigQuery che utilizza il partizionamento temporale basato su colonne:

Go

Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Go di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.


import (
	"context"
	"fmt"
	"time"

	"cloud.google.com/go/bigquery"
)

// importPartitionedTable demonstrates specifing time partitioning for a BigQuery table when loading
// CSV data from Cloud Storage.
func importPartitionedTable(projectID, destDatasetID, destTableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	gcsRef := bigquery.NewGCSReference("gs://cloud-samples-data/bigquery/us-states/us-states-by-date.csv")
	gcsRef.SkipLeadingRows = 1
	gcsRef.Schema = bigquery.Schema{
		{Name: "name", Type: bigquery.StringFieldType},
		{Name: "post_abbr", Type: bigquery.StringFieldType},
		{Name: "date", Type: bigquery.DateFieldType},
	}
	loader := client.Dataset(destDatasetID).Table(destTableID).LoaderFrom(gcsRef)
	loader.TimePartitioning = &bigquery.TimePartitioning{
		Field:      "date",
		Expiration: 90 * 24 * time.Hour,
	}
	loader.WriteDisposition = bigquery.WriteEmpty

	job, err := loader.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}

	if status.Err() != nil {
		return fmt.Errorf("job completed with error: %v", status.Err())
	}
	return nil
}

Java

Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Java di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.Field;
import com.google.cloud.bigquery.FormatOptions;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobId;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.LoadJobConfiguration;
import com.google.cloud.bigquery.Schema;
import com.google.cloud.bigquery.StandardSQLTypeName;
import com.google.cloud.bigquery.TableId;
import com.google.cloud.bigquery.TimePartitioning;
import java.time.Duration;
import java.time.temporal.ChronoUnit;
import java.util.UUID;

public class LoadPartitionedTable {

  public static void runLoadPartitionedTable() throws Exception {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    String sourceUri = "/path/to/file.csv";
    loadPartitionedTable(datasetName, tableName, sourceUri);
  }

  public static void loadPartitionedTable(String datasetName, String tableName, String sourceUri)
      throws Exception {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      TableId tableId = TableId.of(datasetName, tableName);

      Schema schema =
          Schema.of(
              Field.of("name", StandardSQLTypeName.STRING),
              Field.of("post_abbr", StandardSQLTypeName.STRING),
              Field.of("date", StandardSQLTypeName.DATE));

      // Configure time partitioning. For full list of options, see:
      // https://cloud.google.com/bigquery/docs/reference/rest/v2/tables#TimePartitioning
      TimePartitioning partitioning =
          TimePartitioning.newBuilder(TimePartitioning.Type.DAY)
              .setField("date")
              .setExpirationMs(Duration.of(90, ChronoUnit.DAYS).toMillis())
              .build();

      LoadJobConfiguration loadJobConfig =
          LoadJobConfiguration.builder(tableId, sourceUri)
              .setFormatOptions(FormatOptions.csv())
              .setSchema(schema)
              .setTimePartitioning(partitioning)
              .build();

      // Create a job ID so that we can safely retry.
      JobId jobId = JobId.of(UUID.randomUUID().toString());
      Job loadJob = bigquery.create(JobInfo.newBuilder(loadJobConfig).setJobId(jobId).build());

      // Load data from a GCS parquet file into the table
      // Blocks until this load table job completes its execution, either failing or succeeding.
      Job completedJob = loadJob.waitFor();

      // Check for errors
      if (completedJob == null) {
        throw new Exception("Job not executed since it no longer exists.");
      } else if (completedJob.getStatus().getError() != null) {
        // You can also look at queryJob.getStatus().getExecutionErrors() for all
        // errors, not just the latest one.
        throw new Exception(
            "BigQuery was unable to load into the table due to an error: \n"
                + loadJob.getStatus().getError());
      }
      System.out.println("Data successfully loaded into time partitioned table during load job");
    } catch (BigQueryException | InterruptedException e) {
      System.out.println(
          "Data not loaded into time partitioned table during load job \n" + e.toString());
    }
  }
}

Node.js

Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Node.js di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

// Import the Google Cloud client libraries
const {BigQuery} = require('@google-cloud/bigquery');
const {Storage} = require('@google-cloud/storage');

// Instantiate clients
const bigquery = new BigQuery();
const storage = new Storage();

/**
 * This sample loads the CSV file at
 * https://storage.googleapis.com/cloud-samples-data/bigquery/us-states/us-states.csv
 *
 * TODO(developer): Replace the following lines with the path to your file.
 */
const bucketName = 'cloud-samples-data';
const filename = 'bigquery/us-states/us-states-by-date.csv';

async function loadTablePartitioned() {
  // Load data into a table that uses column-based time partitioning.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = 'my_dataset';
  // const tableId = 'my_new_table';

  // Configure the load job. For full list of options, see:
  // https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#JobConfigurationLoad
  const partitionConfig = {
    type: 'DAY',
    expirationMs: '7776000000', // 90 days
    field: 'date',
  };

  const metadata = {
    sourceFormat: 'CSV',
    skipLeadingRows: 1,
    schema: {
      fields: [
        {name: 'name', type: 'STRING'},
        {name: 'post_abbr', type: 'STRING'},
        {name: 'date', type: 'DATE'},
      ],
    },
    location: 'US',
    timePartitioning: partitionConfig,
  };

  // Load data from a Google Cloud Storage file into the table
  const [job] = await bigquery
    .dataset(datasetId)
    .table(tableId)
    .load(storage.bucket(bucketName).file(filename), metadata);

  // load() waits for the job to finish
  console.log(`Job ${job.id} completed.`);
}

Python

Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the table to create.
# table_id = "your-project.your_dataset.your_table_name"

job_config = bigquery.LoadJobConfig(
    schema=[
        bigquery.SchemaField("name", "STRING"),
        bigquery.SchemaField("post_abbr", "STRING"),
        bigquery.SchemaField("date", "DATE"),
    ],
    skip_leading_rows=1,
    time_partitioning=bigquery.TimePartitioning(
        type_=bigquery.TimePartitioningType.DAY,
        field="date",  # Name of the column to use for partitioning.
        expiration_ms=7776000000,  # 90 days.
    ),
)
uri = "gs://cloud-samples-data/bigquery/us-states/us-states-by-date.csv"

load_job = client.load_table_from_uri(
    uri, table_id, job_config=job_config
)  # Make an API request.

load_job.result()  # Wait for the job to complete.

table = client.get_table(table_id)
print("Loaded {} rows to table {}".format(table.num_rows, table_id))

Aggiunta o sovrascrittura di una tabella con dati CSV

Puoi caricare ulteriori dati in una tabella dai file di origine o aggiungendo i risultati della query.

Nella console Google Cloud, utilizza l'opzione Preferenza di scrittura per specificare l'azione da eseguire quando carichi i dati da un file di origine o da un risultato di una query.

Quando carichi dati aggiuntivi in una tabella, hai a disposizione le seguenti opzioni:

Opzione console flag strumento bq Proprietà API BigQuery Descrizione
Scrivi se vuota Funzionalità non supportata WRITE_EMPTY Scrive i dati solo se la tabella è vuota.
Aggiungi a tabella --noreplace o --replace=false; se --[no]replace non è specificato, il valore predefinito è Aggiungi WRITE_APPEND (Predefinito) Aggiunge i dati alla fine della tabella.
Sovrascrivi tabella --replace o --replace=true WRITE_TRUNCATE Cancella tutti i dati esistenti in una tabella prima di scrivere i nuovi dati. Questa azione elimina anche lo schema della tabella, la sicurezza a livello di riga e rimuove eventuali chiavi Cloud KMS.

Se carichi i dati in una tabella esistente, il job di caricamento può aggiungere i dati o sovrascrivere la tabella.

Console

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel riquadro Explorer, espandi il progetto e seleziona un set di dati.
  3. Nella sezione Informazioni sul set di dati, fai clic su Crea tabella.
  4. Nel riquadro Crea tabella, specifica i seguenti dettagli:
    1. Nella sezione Origine, seleziona Google Cloud Storage nell'elenco Crea tabella da. Poi segui questi passaggi:
      1. Seleziona un file dal bucket Cloud Storage oppure inserisci l'URI Cloud Storage. Non puoi includere più URI nella console Google Cloud, ma sono supportati i caratteri jolly. Il bucket Cloud Storage deve trovarsi nella stessa località del set di dati che contiene la tabella da creare, aggiungere o sovrascrivere. seleziona il file di origine per creare una tabella BigQuery
      2. Per Formato file, seleziona CSV.
    2. Nella sezione Destinazione, specifica i seguenti dettagli:
      1. In Set di dati, seleziona il set di dati in cui vuoi creare la tabella.
      2. Nel campo Tabella, inserisci il nome della tabella da creare.
      3. Verifica che il campo Tipo di tabella sia impostato su Tabella nativa.
    3. Nella sezione Schema, inserisci la definizione dello schema. Per abilitare il rilevamento automatico di uno schema, seleziona Rilevamento automatico. Puoi inserire manualmente le informazioni sullo schema utilizzando uno dei seguenti metodi:
      • Opzione 1: fai clic su Modifica come testo e incolla lo schema sotto forma di array JSON. Quando utilizzi un array JSON, generi lo schema utilizzando la stessa procedura utilizzata per la creazione di un file di schema JSON. Puoi visualizzare lo schema di una tabella esistente in formato JSON inserendo il seguente comando:
            bq show --format=prettyjson dataset.table
            
      • Opzione 2: fai clic su Aggiungi campo e inserisci lo schema della tabella. Specifica Name, Type e Mode di ogni campo.
    4. (Facoltativo) Specifica le impostazioni di partizione e clustering. Per saperne di più, consulta Creazione di tabelle partizionate e Creazione e utilizzo di tabelle in cluster. Non puoi convertire una tabella in una tabella partizionata o in cluster aggiungendola o sovrascrivendola. La console Google Cloud non supporta l'aggiunta o la sovrascrittura di tabelle partizionate o in cluster in un job di caricamento.
    5. Fai clic su Opzioni avanzate ed esegui le seguenti operazioni:
      • In Preferenza di scrittura, scegli Aggiungi alla tabella o Sovrascrivi tabella.
      • In Numero di errori consentiti, accetta il valore predefinito di 0 o inserisci il numero massimo di righe contenenti errori che può essere ignorato. Se il numero di righe con errori supera questo valore, il job genererà un messaggio invalid e avrà esito negativo. Questa opzione si applica solo ai file CSV e JSON.
      • Se vuoi ignorare i valori in una riga che non sono presenti nello schema della tabella, seleziona Valori sconosciuti.
      • Per Delimitatore di campo, scegli il carattere che separa le celle nel file CSV: Virgola, Tab, Barra verticale o Personalizzato. Se scegli Personalizzato, inserisci il delimitatore nella casella Delimitatore di campo personalizzato. Il valore predefinito è Virgola.
      • In Righe di intestazione da saltare, inserisci il numero di righe di intestazione da saltare all'inizio del file CSV. Il valore predefinito è 0.
      • Per Nuovi righe tra virgolette, seleziona Consenti nuove righe tra virgolette per consentire le sezioni di dati tra virgolette che contengono caratteri di nuova riga in un file CSV. Il valore predefinito è false.
      • Per Righe frastagliate, seleziona Consenti righe frastagliate per accettare le righe nei file CSV in cui mancano le colonne facoltative finali. I valori mancanti vengono trattati come null. Se questa opzione è deselezionata, i record con colonne finali mancanti vengono trattati come record non validi e, se sono presenti troppi record non validi, nel risultato del job viene restituito un errore non valido. Il valore predefinito è false.
      • In Crittografia, fai clic su Chiave gestita dal cliente per utilizzare una chiave Cloud Key Management Service. Se lasci l'impostazione Chiave gestita da Google, BigQuery cripta i dati at-rest.
    6. Fai clic su Crea tabella.

SQL

Utilizza l'istruzione DDL LOAD DATA. Nell'esempio seguente, un file CSV viene aggiunto alla tabella mytable:

  1. Nella console Google Cloud, vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nell'editor query, inserisci la seguente istruzione:

    LOAD DATA INTO mydataset.mytable
    FROM FILES (
      format = 'CSV',
      uris = ['gs://bucket/path/file.csv']);
    

  3. Fai clic su Esegui.

Per ulteriori informazioni su come eseguire le query, vedi Eseguire una query interattiva.

bq

Usa il comando bq load, specifica CSV con il flag --source_format e includi un URI Cloud Storage. Puoi includere un singolo URI, un elenco di URI separati da virgole o un URI contenente un caratteri jolly.

Fornisci lo schema in linea, in un file di definizione dello schema, oppure utilizza il rilevamento automatico dello schema. Se non specifichi uno schema, se --autodetect è false ed esiste la tabella di destinazione, viene utilizzato lo schema della tabella di destinazione.

Specifica il flag --replace per sovrascrivere la tabella. Utilizza il flag --noreplace per aggiungere dati alla tabella. Se non viene specificato nessun flag, il valore predefinito è l'aggiunta di dati.

È possibile modificare lo schema della tabella quando lo aggiungi o lo sovrascrivi. Per ulteriori informazioni sulle modifiche allo schema supportate durante un'operazione di caricamento, consulta Modifica degli schemi delle tabelle.

(Facoltativo) Fornisci il flag --location e imposta il valore sulla tua posizione.

Altri flag facoltativi includono:

  • --allow_jagged_rows: se specificato, accetta le righe nei file CSV che mancano delle colonne facoltative finali. I valori mancanti vengono trattati come null. Se questa opzione è deselezionata, i record con colonne finali mancanti vengono trattati come record non validi e, se sono presenti troppi record non validi, nel risultato del job viene restituito un errore non valido. Il valore predefinito è false.
  • --allow_quoted_newlines: se specificato, consente le sezioni di dati tra virgolette che contengono caratteri di nuova riga in un file CSV. Il valore predefinito è false.
  • --field_delimiter: il carattere che indica il confine tra le colonne nei dati. \t e tab sono consentiti per i delimitatori di tabulazione. Il valore predefinito è ,.
  • --null_marker: una stringa personalizzata facoltativa che rappresenta un valore NULL nei dati CSV.
  • --skip_leading_rows: specifica il numero di righe di intestazione da saltare nella parte superiore del file CSV. Il valore predefinito è 0.
  • --quote: le virgolette da utilizzare per racchiudere i record. Il valore predefinito è ". Per non indicare virgolette, utilizza una stringa vuota.
  • --max_bad_records: un numero intero che specifica il numero massimo di record non validi consentiti prima che l'intero job non vada a buon fine. Il valore predefinito è 0. Al massimo, vengono restituiti cinque errori di qualsiasi tipo a prescindere dal valore --max_bad_records.
  • --ignore_unknown_values: se specificato, consente e ignora valori aggiuntivi non riconosciuti nei dati CSV o JSON.
  • --autodetect: se specificato, attiva il rilevamento automatico dello schema per i dati CSV e JSON.
  • --destination_kms_key: la chiave Cloud KMS per la crittografia dei dati della tabella.
bq --location=location load \
--[no]replace \
--source_format=format \
dataset.table \
path_to_source \
schema

dove:

  • location è la tua località. Il flag --location è facoltativo. Puoi impostare un valore predefinito per la località utilizzando il file.bigqueryrc.
  • format è pari a CSV.
  • dataset è un set di dati esistente.
  • table è il nome della tabella in cui vengono caricati i dati.
  • path_to_source è un URI Cloud Storage completo o un elenco di URI separati da virgole. Sono supportati anche i caratteri jolly.
  • schema è uno schema valido. Lo schema può essere un file JSON locale o può essere digitato in linea come parte del comando. Puoi anche utilizzare il flag --autodetect anziché fornire una definizione dello schema.

Esempi:

Il seguente comando carica i dati da gs://mybucket/mydata.csv e sovrascrive una tabella denominata mytable in mydataset. Lo schema viene definito tramite il rilevamento automatico dello schema.

    bq load \
    --autodetect \
    --replace \
    --source_format=CSV \
    mydataset.mytable \
    gs://mybucket/mydata.csv

Il seguente comando carica i dati da gs://mybucket/mydata.csv e accoda i dati a una tabella denominata mytable in mydataset. Lo schema viene definito utilizzando un file di schema JSON: myschema.json.

    bq load \
    --noreplace \
    --source_format=CSV \
    mydataset.mytable \
    gs://mybucket/mydata.csv \
    ./myschema.json

API

  1. Crea un job load che punti ai dati di origine in Cloud Storage.

  2. (Facoltativo) Specifica la tua località nella proprietà location nella sezione jobReference della risorsa job.

  3. La proprietà source URIs deve essere completa, nel formato gs://bucket/object. Puoi includere più URI sotto forma di elenco separato da virgole. Tieni presente che sono supportati anche i caratteri jolly.

  4. Specifica il formato dei dati impostando la proprietà configuration.load.sourceFormat su CSV.

  5. Specifica la preferenza di scrittura impostando la proprietà configuration.load.writeDisposition su WRITE_TRUNCATE o WRITE_APPEND.

Go

Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Go di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

import (
	"context"
	"fmt"

	"cloud.google.com/go/bigquery"
)

// importCSVTruncate demonstrates loading data from CSV data in Cloud Storage and overwriting/truncating
// data in the existing table.
func importCSVTruncate(projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	gcsRef := bigquery.NewGCSReference("gs://cloud-samples-data/bigquery/us-states/us-states.csv")
	gcsRef.SourceFormat = bigquery.CSV
	gcsRef.AutoDetect = true
	gcsRef.SkipLeadingRows = 1
	loader := client.Dataset(datasetID).Table(tableID).LoaderFrom(gcsRef)
	loader.WriteDisposition = bigquery.WriteTruncate

	job, err := loader.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}

	if status.Err() != nil {
		return fmt.Errorf("job completed with error: %v", status.Err())
	}
	return nil
}

Java

Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Java di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.FormatOptions;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.JobInfo.WriteDisposition;
import com.google.cloud.bigquery.LoadJobConfiguration;
import com.google.cloud.bigquery.TableId;

// Sample to overwrite the BigQuery table data by loading a CSV file from GCS
public class LoadCsvFromGcsTruncate {

  public static void runLoadCsvFromGcsTruncate() throws Exception {
    // TODO(developer): Replace these variables before running the sample.
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    String sourceUri = "gs://cloud-samples-data/bigquery/us-states/us-states.csv";
    loadCsvFromGcsTruncate(datasetName, tableName, sourceUri);
  }

  public static void loadCsvFromGcsTruncate(String datasetName, String tableName, String sourceUri)
      throws Exception {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      TableId tableId = TableId.of(datasetName, tableName);

      LoadJobConfiguration configuration =
          LoadJobConfiguration.builder(tableId, sourceUri)
              .setFormatOptions(FormatOptions.csv())
              // Set the write disposition to overwrite existing table data
              .setWriteDisposition(WriteDisposition.WRITE_TRUNCATE)
              .build();

      // For more information on Job see:
      // https://googleapis.dev/java/google-cloud-clients/latest/index.html?com/google/cloud/bigquery/package-summary.html
      // Load the table
      Job loadJob = bigquery.create(JobInfo.of(configuration));

      // Load data from a GCS parquet file into the table
      // Blocks until this load table job completes its execution, either failing or succeeding.
      Job completedJob = loadJob.waitFor();

      // Check for errors
      if (completedJob == null) {
        throw new Exception("Job not executed since it no longer exists.");
      } else if (completedJob.getStatus().getError() != null) {
        // You can also look at queryJob.getStatus().getExecutionErrors() for all
        // errors, not just the latest one.
        throw new Exception(
            "BigQuery was unable to load into the table due to an error: \n"
                + loadJob.getStatus().getError());
      }
      System.out.println("Table is successfully overwritten by CSV file loaded from GCS");
    } catch (BigQueryException | InterruptedException e) {
      System.out.println("Column not added during load append \n" + e.toString());
    }
  }
}

Node.js

Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Node.js di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

Per sostituire le righe in una tabella esistente, imposta il valore writeDisposition nel parametro metadata su 'WRITE_TRUNCATE'.

// Import the Google Cloud client libraries
const {BigQuery} = require('@google-cloud/bigquery');
const {Storage} = require('@google-cloud/storage');

// Instantiate clients
const bigquery = new BigQuery();
const storage = new Storage();

/**
 * This sample loads the CSV file at
 * https://storage.googleapis.com/cloud-samples-data/bigquery/us-states/us-states.csv
 *
 * TODO(developer): Replace the following lines with the path to your file.
 */
const bucketName = 'cloud-samples-data';
const filename = 'bigquery/us-states/us-states.csv';

async function loadCSVFromGCSTruncate() {
  /**
   * Imports a GCS file into a table and overwrites
   * table data if table already exists.
   */

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = 'my_dataset';
  // const tableId = 'my_table';

  // Configure the load job. For full list of options, see:
  // https://cloud.google.com/bigquery/docs/reference/rest/v2/Job#JobConfigurationLoad
  const metadata = {
    sourceFormat: 'CSV',
    skipLeadingRows: 1,
    schema: {
      fields: [
        {name: 'name', type: 'STRING'},
        {name: 'post_abbr', type: 'STRING'},
      ],
    },
    // Set the write disposition to overwrite existing table data.
    writeDisposition: 'WRITE_TRUNCATE',
    location: 'US',
  };

  // Load data from a Google Cloud Storage file into the table
  const [job] = await bigquery
    .dataset(datasetId)
    .table(tableId)
    .load(storage.bucket(bucketName).file(filename), metadata);
  // load() waits for the job to finish
  console.log(`Job ${job.id} completed.`);

  // Check the job's status for errors
  const errors = job.status.errors;
  if (errors && errors.length > 0) {
    throw errors;
  }
}

Prima di provare questo esempio, segui le istruzioni per la configurazione di PHP nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API PHP di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

use Google\Cloud\BigQuery\BigQueryClient;
use Google\Cloud\Core\ExponentialBackoff;

/** Uncomment and populate these variables in your code */
// $projectId = 'The Google project ID';
// $datasetId = 'The BigQuery dataset ID';
// $tableId = 'The BigQuery table ID';

// instantiate the bigquery table service
$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);
$table = $bigQuery->dataset($datasetId)->table($tableId);

// create the import job
$gcsUri = 'gs://cloud-samples-data/bigquery/us-states/us-states.csv';
$loadConfig = $table->loadFromStorage($gcsUri)->skipLeadingRows(1)->writeDisposition('WRITE_TRUNCATE');
$job = $table->runJob($loadConfig);

// poll the job until it is complete
$backoff = new ExponentialBackoff(10);
$backoff->execute(function () use ($job) {
    print('Waiting for job to complete' . PHP_EOL);
    $job->reload();
    if (!$job->isComplete()) {
        throw new Exception('Job has not yet completed', 500);
    }
});

// check if the job has errors
if (isset($job->info()['status']['errorResult'])) {
    $error = $job->info()['status']['errorResult']['message'];
    printf('Error running job: %s' . PHP_EOL, $error);
} else {
    print('Data imported successfully' . PHP_EOL);
}

Python

Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nella guida rapida di BigQuery sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python di BigQuery.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per le librerie client.

Per sostituire le righe in una tabella esistente, imposta la proprietà LoadJobConfig.write_disposition sulla costante SourceFormat WRITE_TRUNCATE.

import six

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the table to create.
# table_id = "your-project.your_dataset.your_table_name

job_config = bigquery.LoadJobConfig(
    schema=[
        bigquery.SchemaField("name", "STRING"),
        bigquery.SchemaField("post_abbr", "STRING"),
    ],
)

body = six.BytesIO(b"Washington,WA")
client.load_table_from_file(body, table_id, job_config=job_config).result()
previous_rows = client.get_table(table_id).num_rows
assert previous_rows > 0

job_config = bigquery.LoadJobConfig(
    write_disposition=bigquery.WriteDisposition.WRITE_TRUNCATE,
    source_format=bigquery.SourceFormat.CSV,
    skip_leading_rows=1,
)

uri = "gs://cloud-samples-data/bigquery/us-states/us-states.csv"
load_job = client.load_table_from_uri(
    uri, table_id, job_config=job_config
)  # Make an API request.

load_job.result()  # Waits for the job to complete.

destination_table = client.get_table(table_id)
print("Loaded {} rows.".format(destination_table.num_rows))

Caricamento dei dati CSV partizionati in hive

BigQuery supporta il caricamento di dati CSV partizionati hive archiviati in Cloud Storage e completerà le colonne di partizionamento hive come colonne nella tabella gestita da BigQuery di destinazione. Per ulteriori informazioni, consulta Caricare dati partizionati esternamente da Cloud Storage.

Dettagli del caricamento dei dati CSV

Questa sezione descrive come BigQuery gestisce le varie opzioni di formattazione CSV.

Codifica

BigQuery prevede che i dati CSV siano codificati in UTF-8. Se hai file CSV con altri tipi di codifica supportati, devi specificare esplicitamente la codifica in modo che BigQuery possa convertire correttamente i dati in UTF-8.

BigQuery supporta i seguenti tipi di codifica per i file CSV:

  • UTF-8
  • ISO-8859-1
  • UTF-16BE (UTF-16 Big Endian)
  • UTF-16LE (UTF-16 Little Endian)
  • UTF-32BE (UTF-32 Big Endian)
  • UTF-32LE (UTF-32 Little Endian)

Se non specifichi una codifica o se specifichi la codifica UTF-8 quando il file CSV non è codificato in UTF-8, BigQuery tenta di convertire i dati in UTF-8. In genere, se il file CSV è codificato in ISO-8859-1, i dati vengono caricati correttamente, ma potrebbero non corrispondere esattamente a quanto previsto. Se il file CSV con codifica UTF-16BE, UTF-16LE, UTF-32BE o UTF-32LE, il caricamento potrebbe non riuscire. Per evitare errori imprevisti, specifica la codifica corretta utilizzando il flag --encoding.

Se BigQuery non può convertire un carattere diverso dal carattere 0 ASCII, BigQuery converte il carattere nel carattere sostitutivo Unicode standard:

Delimitatori di campo

I delimitatori nei file CSV possono essere costituiti da qualsiasi carattere a un byte. Se il file di origine utilizza la codifica ISO-8859-1, qualsiasi carattere può essere un delimitatore. Se il file di origine utilizza la codifica UTF-8, qualsiasi carattere nell'intervallo decimale 1-127 (U+0001-U+007F) può essere utilizzato senza modifiche. Puoi inserire un carattere ISO-8859-1 al di fuori di questo intervallo come delimitatore e BigQuery lo interpreterà correttamente. Tuttavia, se utilizzi un carattere multibyte come delimitatore, alcuni byte verranno interpretati in modo errato come parte del valore del campo.

In genere, si consiglia di utilizzare un delimitatore standard, come una tabulazione, una barra verticale o una virgola. Il valore predefinito è una virgola.

Tipi di dati

Booleano: BigQuery può analizzare una qualsiasi delle seguenti coppie per i dati booleani: 1 o 0, true o false, t o f, sì o no oppure y o n (senza distinzione tra maiuscole e minuscole). Il rilevamento automatico dello schema rileva automaticamente uno di questi valori, tranne 0 e 1.

Byte. Le colonne con tipi BYTES devono essere codificate come Base64.

Data: Le colonne di tipo DATE devono essere nel formato YYYY-MM-DD.

Data e ora. Le colonne con tipo DATETIME devono essere nel formato YYYY-MM-DD HH:MM:SS[.SSSSSS].

Area geografica. Le colonne con tipi GEOGRAPHY devono contenere stringhe in uno dei seguenti formati:

  • Testo noto (WKT)
  • WKB (Ben noto) binario.
  • GeoJSON

Se utilizzi WKB, il valore deve essere codificato in formato esadecimale.

Il seguente elenco mostra esempi di dati validi:

  • Durata: POINT(1 2)
  • GeoJSON: { "type": "Point", "coordinates": [1, 2] }
  • WKB con codifica esadecimale: 0101000000feffffffffffef3f0000000000000040

Prima di caricare i dati GEOGRAPHY, leggi anche Caricamento di dati geospaziali.

Intervallo. Le colonne con i tipi INTERVAL devono essere nel formato Y-M D H:M:S[.F], dove:

  • Y = anno. L'intervallo supportato è compreso tra 0 e 10.000.
  • M = mese. L'intervallo supportato è 1-12.
  • D = giorno. L'intervallo supportato è 1-[ultimo giorno del mese indicato].
  • H = ora.
  • M = minuto.
  • S = secondo.
  • [.F] = Frazioni di un secondo fino a sei cifre, con precisione in microsecondi.

Puoi indicare un valore negativo anteponendo un trattino (-).

Il seguente elenco mostra esempi di dati validi:

  • 10-6 0 0:0:0
  • 0-0 -5 0:0:0
  • 0-0 0 0:0:1.25

Per caricare dati INTERVAL, devi utilizzare il comando bq load e il flag --schema per specificare uno schema. Non puoi caricare dati INTERVAL utilizzando la console.

JSON. Le virgolette vengono convertite in caratteri di escape utilizzando la sequenza di due caratteri "". Per ulteriori informazioni, vedi un esempio di caricamento di dati JSON da un file CSV

Ora. Le colonne con tipi TIME devono essere nel formato HH:MM:SS[.SSSSSS].

Timestamp: BigQuery accetta vari formati di timestamp. Il timestamp deve includere una parte relativa alla data e una all'ora.

  • La parte della data può essere formattata come YYYY-MM-DD o YYYY/MM/DD.

  • La parte del timestamp deve essere formattata nel formato HH:MM[:SS[.SSSSSS]] (i secondi e le frazioni di secondi sono facoltativi).

  • Data e ora devono essere separate da uno spazio o da una "T".

  • Facoltativamente, la data e l'ora possono essere seguite da una differenza UTC o dal designatore della zona UTC (Z). Per ulteriori informazioni, consulta la sezione Fusi orari.

Ad esempio, uno qualsiasi dei seguenti valori di timestamp è valido:

  • 19-08-2018 12:11
  • 2018-08-19 12:11:35
  • 19-08-2018 12:11:35.22
  • 19/08/2018 12:11
  • 12:54:00 UTC 2018-07-05
  • 19-08-2018 07:11:35.220 -05:00
  • 2018-08-19T12:11:35.220Z

Se fornisci uno schema, BigQuery accetta anche l'ora dell'epoca Unix per i valori timestamp. Tuttavia, il rilevamento automatico dello schema non rileva questo caso e considera il valore come un tipo numerico o stringa.

Esempi di valori di timestamp dell'epoca Unix:

  • 1534680695
  • 1,534680695e11

RANGE (anteprima). Rappresentate in file CSV nel formato [LOWER_BOUND, UPPER_BOUND), dove LOWER_BOUND e UPPER_BOUND sono stringhe DATE, DATETIME o TIMESTAMP valide. NULL e UNBOUNDED rappresentano valori di inizio o fine illimitati.

Di seguito sono riportati alcuni esempi di valori CSV per RANGE<DATE>:

  • "[2020-01-01, 2021-01-01)"
  • "[UNBOUNDED, 2021-01-01)"
  • "[2020-03-01, NULL)"
  • "[UNBOUNDED, UNBOUNDED)"

Rilevamento automatico dello schema

Questa sezione descrive il comportamento del rilevamento automatico degli schemi durante il caricamento dei file CSV.

Delimitatore CSV

BigQuery rileva i seguenti delimitatori:

  • virgola ( , )
  • barra verticale ( | )
  • tabulazione ( \t )

Intestazione CSV

BigQuery deduce le intestazioni confrontando la prima riga del file con altre righe del file. Se la prima riga contiene solo stringhe e le altre righe contengono altri tipi di dati, BigQuery presuppone che la prima riga sia una riga di intestazione. BigQuery assegna i nomi delle colonne in base ai nomi dei campi nella riga di intestazione. I nomi potrebbero essere modificati per soddisfare le regole di denominazione per le colonne in BigQuery. Ad esempio, gli spazi verranno sostituiti con trattini bassi.

In caso contrario, BigQuery presuppone che la prima riga sia una riga di dati e assegna nomi generici di colonna come string_field_1. Tieni presente che dopo aver creato una tabella, i nomi delle colonne non possono essere aggiornati nello schema, anche se puoi modificarli manualmente dopo la creazione della tabella. Un'altra opzione è fornire uno schema esplicito invece di usare il rilevamento automatico.

Potresti avere un file CSV con una riga di intestazione, in cui tutti i campi di dati sono stringhe. In questo caso, BigQuery non rileverà automaticamente che la prima riga è un'intestazione. Utilizza l'opzione --skip_leading_rows per saltare la riga di intestazione. In caso contrario, l'intestazione verrà importata come dati. Inoltre, in questo caso valuta la possibilità di fornire uno schema esplicito, in modo da assegnare i nomi delle colonne.

Nuove righe tra virgolette in CSV

BigQuery rileva i caratteri di nuova riga tra virgolette all'interno di un campo CSV e non interpreta il carattere di nuova riga tra virgolette come un limite di riga.

Risolvere gli errori di analisi

Se si verifica un problema durante l'analisi dei file CSV, la risorsa errors del job di caricamento viene compilata con i dettagli dell'errore.

In genere, questi errori identificano l'inizio della riga problematica con un offset di byte. Per i file non compressi puoi utilizzare gsutil con l'argomento -r per accedere alla riga pertinente.

Ad esempio, se esegui il comando bq load ricevi un errore:

bq load
    --skip_leading_rows=1 \
    --source_format=CSV \
    mydataset.mytable \
    gs://my-bucket/mytable.csv \
    'Number:INTEGER,Name:STRING,TookOffice:STRING,LeftOffice:STRING,Party:STRING'

L'errore nell'output è simile al seguente:

Waiting on bqjob_r5268069f5f49c9bf_0000018632e903d7_1 ... (0s)
Current status: DONE
BigQuery error in load operation: Error processing job
'myproject:bqjob_r5268069f5f49c9bf_0000018632e903d7_1': Error while reading
data, error message: Error detected while parsing row starting at position: 1405.
Error: Data between close quote character (") and field separator.
File: gs://my-bucket/mytable.csv
Failure details:
- gs://my-bucket/mytable.csv: Error while reading data,
error message: Error detected while parsing row starting at
position: 1405. Error: Data between close quote character (") and
field separator. File: gs://my-bucket/mytable.csv
- Error while reading data, error message: CSV processing encountered
too many errors, giving up. Rows: 22; errors: 1; max bad: 0; error
percent: 0

In base all'errore precedente, nel file è presente un errore di formato. Per visualizzare i contenuti del file, esegui il comando gsutil cat:

gsutil cat -r 1405-1505 gs://my-bucket/mytable.csv

L'output è simile al seguente:

16,Abraham Lincoln,"March 4, 1861","April 15, "1865,Republican
18,Ulysses S. Grant,"March 4, 1869",
...

In base all'output del file, il problema è una citazione errata in "April 15, "1865.

File CSV compressi

Il debug degli errori di analisi è più difficile per i file CSV compressi, poiché l'offset di byte segnalato si riferisce alla posizione nel file non compresso. Il seguente comando gsutil cat invia il flusso del file da Cloud Storage, lo decomprime, identifica l'offset di byte appropriato e stampa la riga con l'errore di formato:

gsutil cat gs://my-bucket/mytable.csv.gz | gunzip - | tail -c +1406 | head -n 1

L'output è simile al seguente:

16,Abraham Lincoln,"March 4, 1861","April 15, "1865,Republican

Opzioni CSV

Per modificare il modo in cui BigQuery analizza i dati CSV, specifica opzioni aggiuntive nella console Google Cloud, nello strumento a riga di comando bq o nell'API.

Per ulteriori informazioni sul formato CSV, consulta RFC 4180.

Opzione CSV Opzione console flag strumento bq Proprietà API BigQuery Descrizione
Delimitatore di campo Delimitatore di campo: Virgola, Tab, Barra verticale, Personalizzato -F o --field_delimiter fieldDelimiter (Java, Python) (Facoltativo) Il separatore per i campi di un file CSV. Il separatore può essere qualsiasi carattere a byte singolo ISO-8859-1. BigQuery converte la stringa nella codifica ISO-8859-1 e utilizza il primo byte della stringa codificata per suddividere i dati nel loro stato binario non elaborato. BigQuery supporta anche la sequenza di escape "\t" per specificare un separatore di tabulazione. Il valore predefinito è una virgola (",").
Righe di intestazione Righe di intestazione da saltare --skip_leading_rows skipLeadingRows (Java, Python) (Facoltativo) Un numero intero che indica il numero di righe di intestazione nei dati di origine.
Numero di record non validi consentiti Numero di errori consentiti --max_bad_records maxBadRecords (Java, Python) (Facoltativo) Il numero massimo di record non validi che BigQuery può ignorare durante l'esecuzione del job. Se il numero di record non validi supera questo valore, nel risultato del job viene restituito un errore non valido. Il valore predefinito è 0 e richiede che tutti i record siano validi.
Caratteri di nuova riga Consenti caratteri di fine riga con virgolette --allow_quoted_newlines allowQuotedNewlines (Java, Python) (Facoltativo) Indica se consentire in un file CSV le sezioni di dati tra virgolette che contengono caratteri di nuova riga. Il valore predefinito è false.
Valori null personalizzati Nessuna --null_marker nullMarker (Java, Python) (Facoltativo) Specifica una stringa che rappresenta un valore nullo in un file CSV. Ad esempio, se specifichi "\N", BigQuery interpreta "\N" come un valore nullo quando carica un file CSV. Il valore predefinito è la stringa vuota. Se imposti la proprietà su un valore personalizzato, BigQuery genera un errore se è presente una stringa vuota per tutti i tipi di dati, tranne STRING e BYTE. Per le colonne STRING e BYTE, BigQuery interpreta la stringa vuota come un valore vuoto.
Colonne facoltative finali Consenti righe incomplete --allow_jagged_rows allowJaggedRows (Java, Python) (Facoltativo) Accetta le righe che mancano delle colonne finali facoltative. I valori mancanti vengono trattati come null. Se il valore è false, i record con colonne finali mancanti vengono trattati come non validi e, se sono presenti troppi record non validi, nel risultato del job viene restituito un errore non valido. Il valore predefinito è false. Applicabile solo al file CSV, ignorato per gli altri formati.
Valori sconosciuti Ignora valori sconosciuti --ignore_unknown_values ignoreUnknownValues (Java, Python) (Facoltativo) Indica se BigQuery deve consentire valori aggiuntivi che non sono rappresentati nello schema della tabella. Se true, i valori aggiuntivi vengono ignorati. Se il valore è false, i record con colonne aggiuntive vengono trattati come record non validi e, se sono presenti troppi record non validi, nel risultato del job viene restituito un errore non valido. Il valore predefinito è false. La proprietà sourceFormat determina ciò che BigQuery considera come un valore aggiuntivo:
  • CSV: colonne finali
  • JSON: valori denominati che non corrispondono a nomi di colonna
Preventivo Carattere virgolette: Virgoletta doppia, Virgoletta singola, Nessuna, Personalizzata --quote quote (Java, Python) (Facoltativo) Il valore utilizzato per citare le sezioni di dati in un file CSV. BigQuery converte la stringa nella codifica ISO-8859-1 e poi utilizza il primo byte della stringa codificata per suddividere i dati nel loro stato binario non elaborato. Il valore predefinito sono le virgolette doppie (""'). Se i dati non contengono sezioni tra virgolette, imposta il valore della proprietà su una stringa vuota. Se i dati contengono caratteri di nuova riga tra virgolette, devi anche impostare la proprietà allowQuotedNewlines su true. Per includere le virgolette specifiche all'interno di un valore tra virgolette, anteponile a un altro carattere corrispondente. Ad esempio, se vuoi applicare l'interpretazione letterale al carattere predefinito ' " ', utilizza ' "" '.
Codifica Nessuna -E o --encoding encoding (Java, Python) (Facoltativo) La codifica dei caratteri dei dati. I valori supportati sono UTF-8, ISO-8859-1, UTF-16BE, UTF-16LE, UTF-32BE o UTF-32LE. Il valore predefinito è UTF-8. BigQuery decodifica i dati dopo che i dati binari non elaborati sono stati suddivisi utilizzando i valori delle proprietà quote e fieldDelimiter.
Carattere di controllo ASCII Nessuna --preserve_ascii_control_characters Nessuna (Facoltativo) Se vuoi consentire ASCII 0 e altri caratteri di controllo ASCII, imposta --preserve_ascii_control_characters su true per i tuoi job di caricamento.