Esecuzione di query sulle tabelle in cluster

Quando crei una tabella in cluster in BigQuery, i dati della tabella vengono organizzati automaticamente in base ai contenuti di una o più colonne nello schema della tabella. Le colonne specificate vengono utilizzate per collocare i dati correlati. Quando raggruppi una tabella utilizzando più colonne, l'ordine delle colonne si ottiene specificare se è importante. L'ordine delle colonne specificate determina dell'ordine dei dati.

Per ottimizzare le prestazioni quando esegui query su tabelle in cluster, utilizza un'istanza espressione che filtra in base a una colonna in cluster o a più colonne in cluster nell'ordine in cui vengono specificate le colonne in cluster. Le query che filtrano in base alle colonne in cluster hanno in genere un rendimento migliore rispetto alle query che filtrano solo in base alle colonne non in cluster.

BigQuery ordina i dati in una tabella in cluster in base ai valori nelle colonne di clustering e li organizza in blocchi.

Quando invii una query che contiene un filtro su una colonna in cluster, BigQuery utilizza le informazioni di clustering per determinare in modo efficiente se un blocco contiene dati pertinenti per la query. Ciò consente a BigQuery di eseguire la scansione solo dei blocchi pertinenti, una procedura denominata eliminazione dei blocchi.

Puoi eseguire query sulle tabelle in cluster in base a:

  • Utilizzo della console Google Cloud
  • Utilizzo del comando bq query dello strumento a riga di comando bq
  • Chiamata al metodo jobs.insert e configurazione di un job di query
  • Utilizzo delle librerie client

Al momento, puoi utilizzare solo GoogleSQL con le tabelle in cluster.

Vai

Prima di provare questo esempio, segui le istruzioni di configurazione Go riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API BigQuery Go.

Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.

import (
	"context"
	"fmt"
	"io"

	"cloud.google.com/go/bigquery"
	"google.golang.org/api/iterator"
)

// queryClusteredTable demonstrates querying a table that has a clustering specification.
func queryClusteredTable(w io.Writer, projectID, datasetID, tableID string) error {
	// projectID := "my-project-id"
	// datasetID := "mydataset"
	// tableID := "mytable"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	q := client.Query(fmt.Sprintf(`
	SELECT
	  COUNT(1) as transactions,
	  SUM(amount) as total_paid,
	  COUNT(DISTINCT destination) as distinct_recipients
    FROM
	  `+"`%s.%s`"+`
	 WHERE
	    timestamp > TIMESTAMP('2015-01-01')
		AND origin = @wallet`, datasetID, tableID))
	q.Parameters = []bigquery.QueryParameter{
		{
			Name:  "wallet",
			Value: "wallet00001866cb7e0f09a890",
		},
	}
	// Run the query and print results when the query job is completed.
	job, err := q.Run(ctx)
	if err != nil {
		return err
	}
	status, err := job.Wait(ctx)
	if err != nil {
		return err
	}
	if err := status.Err(); err != nil {
		return err
	}
	it, err := job.Read(ctx)
	for {
		var row []bigquery.Value
		err := it.Next(&row)
		if err == iterator.Done {
			break
		}
		if err != nil {
			return err
		}
		fmt.Fprintln(w, row)
	}
	return nil
}

Java

Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di BigQuery con librerie client. Per ulteriori informazioni, consulta API Java BigQuery documentazione di riferimento.

Per autenticarti a BigQuery, configura le credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per le librerie client.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.QueryJobConfiguration;
import com.google.cloud.bigquery.TableResult;

public class QueryClusteredTable {

  public static void runQueryClusteredTable() throws Exception {
    // TODO(developer): Replace these variables before running the sample.
    String projectId = "MY_PROJECT_ID";
    String datasetName = "MY_DATASET_NAME";
    String tableName = "MY_TABLE_NAME";
    queryClusteredTable(projectId, datasetName, tableName);
  }

  public static void queryClusteredTable(String projectId, String datasetName, String tableName) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      String sourceTable = "`" + projectId + "." + datasetName + "." + tableName + "`";
      String query =
          "SELECT word, word_count\n"
              + "FROM "
              + sourceTable
              + "\n"
              // Optimize query performance by filtering the clustered columns in sort order
              + "WHERE corpus = 'romeoandjuliet'\n"
              + "AND word_count >= 1";

      QueryJobConfiguration queryConfig = QueryJobConfiguration.newBuilder(query).build();

      TableResult results = bigquery.query(queryConfig);

      results
          .iterateAll()
          .forEach(row -> row.forEach(val -> System.out.printf("%s,", val.toString())));

      System.out.println("Query clustered table performed successfully.");
    } catch (BigQueryException | InterruptedException e) {
      System.out.println("Query not performed \n" + e.toString());
    }
  }
}

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo di BigQuery con le librerie client. Per ulteriori informazioni, consulta API Python BigQuery documentazione di riferimento.

Per eseguire l'autenticazione su BigQuery, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per le librerie client.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

# TODO(developer): Set table_id to the ID of the destination table.
# table_id = "your-project.your_dataset.your_table_name"

sql = "SELECT * FROM `bigquery-public-data.samples.shakespeare`"
cluster_fields = ["corpus"]

job_config = bigquery.QueryJobConfig(
    clustering_fields=cluster_fields, destination=table_id
)

# Start the query, passing in the extra configuration.
query_job = client.query(sql, job_config=job_config)  # Make an API request.
query_job.result()  # Wait for the job to complete.

table = client.get_table(table_id)  # Make an API request.
if table.clustering_fields == cluster_fields:
    print(
        "The destination table is written using the cluster_fields configuration."
    )

Autorizzazioni obbligatorie

Per eseguire una query job, è necessario il bigquery.jobs.create Autorizzazione Identity and Access Management (IAM) per il progetto che esegue il job di query.

Ciascuno dei seguenti ruoli IAM predefiniti include le autorizzazioni necessarie per eseguire un job di query:

  • roles/bigquery.admin
  • roles/bigquery.jobUser
  • roles/bigquery.user

Inoltre, devi disporre dell'autorizzazione bigquery.tables.getData su tutte le tabelle e le viste a cui fa riferimento la query. Inoltre, quando esegui query una vista è necessaria questa autorizzazione per tutte le tabelle e le viste sottostanti. Tuttavia, se utilizzi le visualizzazioni autorizzate o set di dati autorizzati, non devi l'accesso ai dati di origine sottostanti.

Ciascuno dei seguenti ruoli IAM predefiniti include l'autorizzazione necessaria per tutte le tabelle e le viste a cui fa riferimento la query:

  • roles/bigquery.admin
  • roles/bigquery.dataOwner
  • roles/bigquery.dataEditor
  • roles/bigquery.dataViewer

Per ulteriori informazioni sui ruoli IAM in BigQuery, consulta Ruoli e autorizzazioni predefiniti.

Best practice

Per ottenere le migliori prestazioni dalle query sulle tabelle in cluster, utilizza seguendo le best practice.

Per contesto, la tabella di esempio utilizzata negli esempi di best practice è una tabella cluster creata utilizzando un'istruzione DDL. L'istruzione DDL crea una tabella denominata ClusteredSalesData. La tabella è raggruppata in cluster in base alle seguenti colonne: customer_id, product_id, order_id, nell'ordine di ordinamento specificato.

CREATE TABLE
  `mydataset.ClusteredSalesData`
PARTITION BY
  DATE(timestamp)
CLUSTER BY
  customer_id,
  product_id,
  order_id AS
SELECT
  *
FROM
  `mydataset.SalesData`

Filtrare le colonne raggruppate in base all'ordine di ordinamento

Quando specifichi un filtro, utilizza le espressioni che filtrano nelle colonne in cluster. in ordine. L'ordinamento è l'ordine delle colonne specificato nella clausola CLUSTER BY. Per usufruire dei vantaggi del clustering, includi tutte le colonne raggruppate o un sottoinsieme di colonne nell'ordine di ordinamento da sinistra a destra, a partire dalla prima colonna. Ad esempio, se l'ordinamento delle colonne è A, B, C, un query che filtra in base a A e B potrebbe trarre vantaggio dal clustering, ma una query che filtra per B e C non lo fa. L'ordine dei nomi delle colonne all'interno l'espressione di filtro non influisce sulle prestazioni.

L'esempio seguente esegue query sulla tabella clusterizzata ClusteredSalesData creata nell'esempio precedente. La query include un'espressione di filtro che filtra in base a customer_id e poi a product_id. Questa query ottimizza le prestazioni filtrando le colonne in cluster in ordina ordine: l'ordine delle colonne specificato nella clausola CLUSTER BY.

SELECT
  SUM(totalSale)
FROM
  `mydataset.ClusteredSalesData`
WHERE
  customer_id = 10000
  AND product_id LIKE 'gcp_analytics%'

La seguente query non filtra le colonne raggruppate in base all'ordinamento. Come significa che le prestazioni della query non sono ottimali. Questa query filtra in base a product_id e poi a order_id (saltando customer_id).

SELECT
  SUM(totalSale)
FROM
  `mydataset.ClusteredSalesData`
WHERE
  product_id LIKE 'gcp_analytics%'
  AND order_id = 20000

Non utilizzare colonne raggruppate in espressioni di filtro complesse

Se utilizzi una colonna in cluster in un'espressione di filtro complessa, le prestazioni della query non sono ottimizzate perché non è possibile applicare l'eliminazione dei blocchi.

Ad esempio, la seguente query non eliminerà i blocchi perché un cluster colonna—customer_id—è utilizzata in una funzione nel filtro un'espressione di base.

SELECT
  SUM(totalSale)
FROM
  `mydataset.ClusteredSalesData`
WHERE
  CAST(customer_id AS STRING) = "10000"

Per ottimizzare le prestazioni delle query eliminando i blocchi, utilizza semplici espressioni di filtro come la seguente. In questo esempio, viene applicato un semplice filtro alla colonna raggruppata customer_id.

SELECT
  SUM(totalSale)
FROM
  `mydataset.ClusteredSalesData`
WHERE
  customer_id = 10000

Non confrontare le colonne raggruppate con altre colonne

Se un'espressione di filtro confronta una colonna in cluster con un'altra colonna (una in cluster o in una colonna non in cluster), le prestazioni della query non ottimizzato perché non è possibile applicare l'eliminazione dei blocchi.

La seguente query non elimina i blocchi perché l'espressione filtro confronta una colonna raggruppata (customer_id) con un'altra colonna (order_id).

SELECT
  SUM(totalSale)
FROM
  `mydataset.ClusteredSalesData`
WHERE
  customer_id = order_id

Sicurezza delle tabelle

Per controllare l'accesso alle tabelle in BigQuery, consulta Introduzione ai controlli di accesso alle tabelle.

Passaggi successivi