양방향 및 일괄 쿼리 작업 실행

이 문서에서는 양방향(주문형) 및 일괄 쿼리 작업을 실행하는 방법에 대해서 설명합니다.

필수 권한

작업은 BigQuery가 데이터 로드, 데이터 내보내기, 데이터 쿼리 또는 데이터 복사를 위해 사용자 대신 실행하는 작업입니다.

콘솔, 기본 BigQuery 웹 UI 또는 CLI를 사용하여 데이터 로드, 내보내기, 쿼리 또는 복사를 수행하면 작업 리소스가 자동으로 생성, 예약, 실행됩니다. 프로그래매틱 방식으로 로드, 내보내기, 쿼리 또는 복사 작업을 만들 수도 있습니다. 프로그래매틱 방식으로 작업을 만들면 BigQuery가 사용자 대신 작업을 예약 및 실행합니다.

작업을 완료하는 데 오랜 시간이 걸릴 수 있으므로, 작업은 비동기식으로 실행되며 상태가 폴링될 수 있습니다. 리소스를 나열하거나 메타데이터를 가져오는 것처럼 더 짧은 동작은 job 리소스에 의해 관리되지 않습니다.

쿼리 작업을 실행하려면 bigquery.jobs.create 권한이 있어야 합니다. 쿼리 작업이 성공적으로 완료되기 위해서는 사용자 또는 그룹이 쿼리에서 참조되는 테이블이 포함된 데이터세트에 대한 액세스 권한도 갖고 있어야 합니다.

다음과 같은 사전 정의된 IAM 역할을 부여하여 프로젝트 수준에서 bigquery.jobs.create 권한을 설정할 수 있습니다.

  • bigquery.user
  • bigquery.jobUser
  • bigquery.admin

사용자 또는 그룹에 프로젝트 수준의 bigquery.user 역할을 부여하면 기본적으로 프로젝트의 데이터세트, 테이블 또는 뷰에 대한 액세스 권한은 부여되지 않습니다. bigquery.user 역할이 부여된 사용자는 데이터세트를 만들고 자신이 액세스할 수 있는 데이터세트에 대해 쿼리 작업을 실행할 수 있습니다. bigquery.user 또는 bigquery.jobUser 역할을 할당할 경우 사용자가 만들지는 않았지만 사용자 또는 그룹이 액세스해야 하는 각 데이터세트에 대한 액세스 제어도 할당해야 합니다.

데이터세트에 대한 액세스 권한을 할당할 때는 다음과 같은 3가지 옵션이 있습니다.

  • '보기 가능'은 해당 데이터세트에 대한 bigquery.dataViewer 역할에 매핑됩니다.
  • '수정 가능'은 해당 데이터세트에 대한 bigquery.dataEditor 역할에 매핑됩니다.
  • '소유자임'은 해당 데이터세트에 대한 bigquery.dataOwner 역할에 매핑됩니다.

사용자가 쿼리를 실행하는 데 필요한 최소한의 액세스 권한은 '보기 가능'입니다.

BigQuery의 IAM 역할에 대한 자세한 내용은 액세스 제어를 참조하세요.

대화형 쿼리 실행

기본적으로 BigQuery는 양방향(주문형) 쿼리 작업을 실행합니다. 따라서 쿼리가 최대한 빠르게 실행됩니다. 대화형 쿼리는 동시 비율 한도와 일일 한도에 반영됩니다.

쿼리 결과는 항상 임시 또는 영구 테이블에 저장됩니다. 데이터를 기존 테이블에 추가하거나 덮어쓸지, 혹은 동일한 이름의 테이블이 존재하지 않을 경우 새 테이블을 만들지 선택할 수 있습니다.

임시 테이블에 데이터를 쓰는 대화형 쿼리를 실행하려면 다음과 같이 하세요.

기본 UI

  1. BigQuery 웹 UI로 이동합니다.
    BigQuery 웹 UI로 이동

  2. 쿼리 작성을 클릭합니다.

  3. 새 쿼리 텍스트 영역에 유효한 BigQuery SQL 쿼리를 입력합니다.

  4. 옵션 표시를 클릭합니다.

  5. (선택사항) 처리 위치에서 미지정을 클릭하고 데이터의 위치를 선택합니다.

  6. 쿼리 실행을 클릭합니다.

그러면 임시 테이블에 출력을 쓰는 쿼리 작업이 생성됩니다.

명령줄

bq query 명령어를 입력하고 쿼리 텍스트를 포함합니다. --location 플래그를 지정하고 값을 사용자 위치로 설정합니다.

다음과 같은 선택적 플래그를 지정할 수 있습니다. 이 목록에는 가장 일반적인 몇 가지 플래그만 포함되어 있습니다. query 명령어 플래그의 전체 목록은 bq 명령줄 도구 참조에서 bq query를 참조하세요.

플래그 지정

  • --destination_table 플래그: 쿼리 결과를 기반으로 영구 테이블을 만듭니다. 기본 프로젝트에 없는 테이블에 쿼리 결과를 기록하려면 프로젝트 ID를 [PROJECT_ID]:[DATASET] 형식으로 데이터세트 이름에 추가합니다. --destination_table을 지정하지 않으면 임시(캐시) 테이블에 출력을 쓰는 쿼리 작업이 생성됩니다.
  • --append_table 플래그: 쿼리 결과를 대상 테이블에 추가합니다.
  • --destination_kms_key 플래그: Cloud KMS 키를 사용하여 대상 테이블 데이터를 암호화합니다.
  • --use_legacy_sql=false 플래그: 표준 SQL 구문을 사용합니다. .bigqueryrc 파일을 사용하면 명령줄 도구의 기본 구문을 설정할 수 있습니다.
  • --label 플래그: 쿼리 작업에 [KEY]:[VALUE] 형식으로 라벨을 적용합니다. 여러 개의 라벨을 지정하려면 이 플래그를 반복합니다.
  • --max_rows 또는 -n 플래그: 쿼리 결과에 반환할 행의 개수를 지정합니다.
  • --maximum_bytes_billed 플래그: 쿼리 요금이 청구되는 바이트 수를 제한합니다. 이 한도를 초과하는 쿼리는 실패하고 요금이 청구되지 않습니다. 이 플래그를 지정하지 않으면 청구되는 바이트 수가 프로젝트 기본값으로 설정됩니다.
  • --udf_resource 플래그: 사용자 정의 함수 리소스로 사용할 코드 파일을 로드하고 평가합니다. Cloud Storage URI나 로컬 코드 파일의 경로를 지정할 수 있습니다. 여러 파일을 지정하려면 이 플래그를 반복합니다.

표준 SQL 구문을 사용하여 대화형 쿼리를 실행하려면 다음 명령어를 입력합니다.

bq --location=[LOCATION] query --use_legacy_sql=false '[QUERY]'

각 항목의 의미는 다음과 같습니다.

  • [LOCATION]은 쿼리가 처리되는 위치의 이름입니다. --location 플래그는 선택사항입니다. 예를 들어 도쿄 지역에서 BigQuery를 사용하는 경우에는 플래그 값을 asia-northeast1로 설정할 수 있습니다. .bigqueryrc 파일을 사용하여 위치 기본값을 설정할 수 있습니다.
  • [QUERY]는 표준 SQL 구문의 쿼리입니다.

예:

mydataset에 있는 mytable이라는 이름의 대상 테이블에 대화형 쿼리 결과를 쓰려면 다음 명령어를 입력합니다. 이 데이터세트는 기본 프로젝트에 있습니다. 이 쿼리는 미국 이름 데이터 공개 데이터세트에서 데이터를 가져옵니다.

bq --location=US query --destination_table mydataset.mytable --use_legacy_sql=false 'SELECT name,number FROM `bigquery-public-data.usa_names.usa_1910_current` WHERE gender = "M" ORDER BY number DESC'

mydataset에 있는 mytable이라는 이름의 대상 테이블에 대화형 쿼리 결과를 쓰려면 다음 명령어를 입력합니다. 이 데이터세트는 기본 프로젝트가 아니라 myotherproject에 있습니다. 이 쿼리는 미국 이름 데이터 공개 데이터세트의 파티션을 나누지 않은 테이블에서 데이터를 가져옵니다.

bq --location=US query --destination_table myotherproject:mydataset.mytable --use_legacy_sql=false 'SELECT name,number FROM `bigquery-public-data.usa_names.usa_1910_current` WHERE gender = "M" ORDER BY number DESC'

자세한 내용은 bq 명령줄 도구를 참조하세요.

API

API를 사용하여 쿼리를 실행하려면 새 작업을 삽입하고 jobs#configuration.query 속성을 채웁니다. 작업 리소스jobReference 섹션에 있는 location 속성에 위치를 지정합니다.

getQueryResults를 호출하여 결과를 폴링합니다. jobCompletetrue가 될 때까지 폴링해야 합니다. 그런 다음 errors 목록에 오류나 경고가 있는지 확인합니다.

C#

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 C# 설정 안내를 따르세요. 자세한 내용은 BigQuery C# API 참조 문서를 참조하세요.

using Google.Cloud.BigQuery.V2;
using System;

public class BigQueryQuery
{
    public void Query(
        string projectId = "your-project-id"
    )
    {
        BigQueryClient client = BigQueryClient.Create(projectId);
        string query = @"
            SELECT name FROM `bigquery-public-data.usa_names.usa_1910_2013`
            WHERE state = 'TX'
            LIMIT 100";
        BigQueryJob job = client.CreateQueryJob(
            sql: query,
            parameters: null,
            options: new QueryOptions { UseQueryCache = false });
        // Wait for the job to complete.
        job.PollUntilCompleted();
        // Display the results
        foreach (BigQueryRow row in client.GetQueryResults(job.Reference))
        {
            Console.WriteLine($"{row["name"]}");
        }
    }
}

Go

이 샘플을 시도하기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Go 설정 안내를 따르세요. 자세한 내용은 BigQuery Go API 참조 문서를 참조하세요.

// To run this sample, you will need to create (or reuse) a context and
// an instance of the bigquery client.  For example:
// import "cloud.google.com/go/bigquery"
// ctx := context.Background()
// client, err := bigquery.NewClient(ctx, "your-project-id")

q := client.Query(
	"SELECT name FROM `bigquery-public-data.usa_names.usa_1910_2013` " +
		"WHERE state = \"TX\" " +
		"LIMIT 100")
// Location must match that of the dataset(s) referenced in the query.
q.Location = "US"
job, err := q.Run(ctx)
if err != nil {
	return err
}
status, err := job.Wait(ctx)
if err != nil {
	return err
}
if err := status.Err(); err != nil {
	return err
}
it, err := job.Read(ctx)
for {
	var row []bigquery.Value
	err := it.Next(&row)
	if err == iterator.Done {
		break
	}
	if err != nil {
		return err
	}
	fmt.Println(row)
}

자바

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 자바 설정 안내를 따르세요. 자세한 내용은 BigQuery 자바 API 참조 문서를 확인하세요.

// BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();
String query = "SELECT corpus FROM `bigquery-public-data.samples.shakespeare` GROUP BY corpus;";
QueryJobConfiguration queryConfig = QueryJobConfiguration.newBuilder(query).build();

// Print the results.
for (FieldValueList row : bigquery.query(queryConfig).iterateAll()) {
  for (FieldValue val : row) {
    System.out.printf("%s,", val.toString());
  }
  System.out.printf("\n");
}

Node.js

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 BigQuery Node.js API 참조 문서를 참조하세요.

// Imports the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');

// Creates a client
const bigquery = new BigQuery();

const query = `SELECT name
  FROM \`bigquery-public-data.usa_names.usa_1910_2013\`
  WHERE state = 'TX'
  LIMIT 100`;
const options = {
  query: query,
  // Location must match that of the dataset(s) referenced in the query.
  location: 'US',
};

// Runs the query as a job
const [job] = await bigquery.createQueryJob(options);
console.log(`Job ${job.id} started.`);

// Waits for the query to finish
const [rows] = await job.getQueryResults();

// Prints the results
console.log('Rows:');
rows.forEach(row => console.log(row));

PHP

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 PHP 설정 안내를 따르세요. 자세한 내용은 BigQuery PHP API 참조 문서를 참조하세요.

use Google\Cloud\BigQuery\BigQueryClient;
use Google\Cloud\Core\ExponentialBackoff;

/** Uncomment and populate these variables in your code */
// $projectId = 'The Google project ID';
// $query = 'SELECT id, view_count FROM `bigquery-public-data.stackoverflow.posts_questions`';

$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);
$jobConfig = $bigQuery->query($query);
$job = $bigQuery->startQuery($jobConfig);

$backoff = new ExponentialBackoff(10);
$backoff->execute(function () use ($job) {
    print('Waiting for job to complete' . PHP_EOL);
    $job->reload();
    if (!$job->isComplete()) {
        throw new Exception('Job has not yet completed', 500);
    }
});
$queryResults = $job->queryResults();

$i = 0;
foreach ($queryResults as $row) {
    printf('--- Row %s ---' . PHP_EOL, ++$i);
    foreach ($row as $column => $value) {
        printf('%s: %s' . PHP_EOL, $column, json_encode($value));
    }
}
printf('Found %s row(s)' . PHP_EOL, $i);

Python

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 BigQuery Python API 참조 문서를 확인하세요.

# from google.cloud import bigquery
# client = bigquery.Client()

query = (
    'SELECT name FROM `bigquery-public-data.usa_names.usa_1910_2013` '
    'WHERE state = "TX" '
    'LIMIT 100')
query_job = client.query(
    query,
    # Location must match that of the dataset(s) referenced in the query.
    location='US')  # API request - starts the query

for row in query_job:  # API request - fetches results
    # Row values can be accessed by field name or index
    assert row[0] == row.name == row['name']
    print(row)

Ruby

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Ruby 설정 안내를 따르세요. 자세한 내용은 BigQuery Ruby API 참조 문서를 참조하세요.

require "google/cloud/bigquery"

def query
  bigquery = Google::Cloud::Bigquery.new
  sql = "SELECT name FROM `bigquery-public-data.usa_names.usa_1910_2013` " +
        "WHERE state = 'TX' " +
        "LIMIT 100"

  # Location must match that of the dataset(s) referenced in the query.
  results = bigquery.query sql do |config|
    config.location = "US"
  end

  results.each do |row|
    puts row.inspect
  end
end

일괄 쿼리 실행

BigQuery는 일괄 쿼리도 제공합니다. BigQuery는 사용자를 대신하여 각 일괄 쿼리를 대기열에 포함시키고 유휴 리소스를 사용할 수 있으면 바로(대개 몇 분 소요) 쿼리를 시작합니다. 24시간 내에 쿼리를 시작하지 못한 경우 BigQuery는 작업 우선순위를 양방향으로 변경합니다.

일괄 쿼리는 동시 비율 한도에 반영되지 않으므로 여러 쿼리를 한 번에 시작하기에 간편합니다. 일괄 쿼리는 양방향(주문형) 쿼리와 동일한 리소스를 사용합니다. 정액제를 사용하는 경우에는 일괄 쿼리 및 대화형 쿼리가 할당된 슬롯을 공유합니다.

일괄 쿼리를 실행하려면 다음과 같이 하세요.

기본 UI

  1. BigQuery 웹 UI로 이동합니다.
    BigQuery 웹 UI로 이동

  2. 쿼리 작성 버튼을 클릭합니다.

  3. 새 쿼리 텍스트 영역에 유효한 BigQuery SQL 쿼리를 입력합니다.

  4. 옵션 표시 버튼을 클릭합니다.

  5. 쿼리 우선순위 섹션에서 일괄 옵션을 선택합니다.

  6. (선택사항) 처리 위치에서 미지정을 클릭하고 데이터의 위치를 선택합니다.

  7. 쿼리 실행 버튼을 클릭합니다.

명령줄

bq query 명령어를 입력하고 쿼리 텍스트를 포함합니다. --batch 플래그를 지정하여 일괄 쿼리를 실행합니다. --location 플래그를 지정하고 값을 사용자 위치로 설정합니다.

다음과 같은 선택적 플래그를 지정할 수 있습니다. 이 목록에는 가장 일반적인 몇 가지 플래그만 포함되어 있습니다. query 명령어 플래그의 전체 목록은 bq 명령줄 도구 참조에서 bq query를 참조하세요.

플래그 지정

  • --destination_table 플래그: 쿼리 결과를 기반으로 영구 테이블을 만듭니다. 기본 프로젝트에 없는 테이블에 쿼리 결과를 기록하려면 프로젝트 ID를 [PROJECT_ID]:[DATASET] 형식으로 데이터세트 이름에 추가합니다. --destination_table을 지정하지 않으면 임시(캐시) 테이블에 출력을 쓰는 쿼리 작업이 생성됩니다.
  • --append_table 플래그: 쿼리 결과를 대상 테이블에 추가합니다.
  • --destination_kms_key 플래그: Cloud KMS 키를 사용하여 대상 테이블 데이터를 암호화합니다.
  • --use_legacy_sql=false 플래그: 표준 SQL 구문을 사용합니다. .bigqueryrc 파일을 사용하면 명령줄 도구의 기본 구문을 설정할 수 있습니다.
  • --label 플래그: 쿼리 작업에 [KEY]:[VALUE] 형식으로 라벨을 적용합니다. 여러 개의 라벨을 지정하려면 이 플래그를 반복합니다.
  • --max_rows 또는 -n 플래그: 쿼리 결과에 반환할 행의 개수를 지정합니다.
  • --maximum_bytes_billed 플래그: 쿼리 요금이 청구되는 바이트 수를 제한합니다. 이 한도를 초과하는 쿼리는 실패하고 요금이 청구되지 않습니다. 이 플래그를 지정하지 않으면 청구되는 바이트 수가 프로젝트 기본값으로 설정됩니다.
  • --udf_resource 플래그: 사용자 정의 함수 리소스로 사용할 코드 파일을 로드하고 평가합니다. Cloud Storage URI나 로컬 코드 파일의 경로를 지정할 수 있습니다. 여러 파일을 지정하려면 이 플래그를 반복합니다.

표준 SQL 구문을 사용하여 일괄 쿼리를 실행하려면 다음 명령어를 입력합니다.

bq --location=[LOCATION] query --batch --use_legacy_sql=false '[QUERY]'

각 항목의 의미는 다음과 같습니다.

  • [LOCATION]은 쿼리가 처리되는 위치의 이름입니다. --location 플래그는 선택사항입니다. 예를 들어 도쿄 지역에서 BigQuery를 사용하는 경우에는 플래그 값을 asia-northeast1로 설정할 수 있습니다. .bigqueryrc 파일을 사용하여 위치 기본값을 설정할 수 있습니다.
  • [QUERY]는 표준 SQL 구문의 쿼리입니다.

예:

mydataset에 있는 mytable이라는 이름의 대상 테이블에 일괄 쿼리 결과를 쓰려면 다음 명령어를 입력합니다. 이 데이터세트는 기본 프로젝트에 있습니다. 이 쿼리는 미국 이름 데이터 공개 데이터세트에서 데이터를 가져옵니다.

bq --location=US query --batch --destination_table mydataset.mytable --use_legacy_sql=false 'SELECT name,number FROM `bigquery-public-data.usa_names.usa_1910_current` WHERE gender = "M" ORDER BY number DESC'

mydataset에 있는 mytable이라는 이름의 대상 테이블에 일괄 쿼리 결과를 쓰려면 다음 명령어를 입력합니다. 이 데이터세트는 기본 프로젝트가 아니라 myotherproject에 있습니다. 이 쿼리는 미국 이름 데이터 공개 데이터세트의 파티션을 나누지 않은 테이블에서 데이터를 가져옵니다.

bq --location=US query --batch --destination_table myotherproject:mydataset.mytable --use_legacy_sql=false 'SELECT name,number FROM `bigquery-public-data.usa_names.usa_1910_current` WHERE gender = "M" ORDER BY number DESC'

자세한 내용은 bq 명령줄 도구를 참조하세요.

API

API를 사용하여 쿼리를 실행하려면 새 작업을 삽입하고 jobs#configuration.query 속성을 채웁니다. 작업 리소스jobReference 섹션에 있는 location 속성에 위치를 지정합니다.

쿼리 작업 속성을 채울 때는 configuration.query.priority 속성을 포함하고 값을 BATCH로 설정합니다.

Go

이 샘플을 시도하기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Go 설정 안내를 따르세요. 자세한 내용은 BigQuery Go API 참조 문서를 참조하세요.

	// To run this sample, you will need to create (or reuse) a context and
	// an instance of the bigquery client.  For example:
	// import "cloud.google.com/go/bigquery"
	// ctx := context.Background()
	// client, err := bigquery.NewClient(ctx, "your-project-id")
	// Build an aggregate table.
	q := client.Query(`
		SELECT
  			corpus,
  			SUM(word_count) as total_words,
  			COUNT(1) as unique_words
		FROM ` + "`bigquery-public-data.samples.shakespeare`" + `
		GROUP BY corpus;`)
	q.Priority = bigquery.BatchPriority
	q.QueryConfig.Dst = client.Dataset(dstDatasetID).Table(dstTableID)

	// Start the job.
	job, err := q.Run(ctx)
	if err != nil {
		return err
	}
	// Job is started and will progress without interaction.
	// To simulate other work being done, sleep a few seconds.
	time.Sleep(5 * time.Second)
	status, err := job.Status(ctx)
	if err != nil {
		return err
	}

	state := "Unknown"
	switch status.State {
	case bigquery.Pending:
		state = "Pending"
	case bigquery.Running:
		state = "Running"
	case bigquery.Done:
		state = "Done"
	}
	// You can continue to monitor job progress until it reaches
	// the Done state by polling periodically.  In this example,
	// we print the latest status.
	fmt.Printf("Job %s in Location %s currently in state: %s\n", job.ID(), job.Location(), state)

자바

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 자바 설정 안내를 따르세요. 자세한 내용은 BigQuery 자바 API 참조 문서를 확인하세요.

일괄 쿼리를 실행하려면 쿼리 우선순위QueryJobConfiguration.Priority.BATCH로 설정합니다. 단, QueryJobConfiguration을 만들 때 설정해야 합니다.

// BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();
String query = "SELECT corpus FROM `bigquery-public-data.samples.shakespeare` GROUP BY corpus;";
QueryJobConfiguration queryConfig =
    QueryJobConfiguration.newBuilder(query)
        // Run at batch priority, which won't count toward concurrent rate
        // limit.
        .setPriority(QueryJobConfiguration.Priority.BATCH)
        .build();

// Location must match that of the dataset(s) referenced in the query.
JobId jobId = JobId.newBuilder().setRandomJob().setLocation("US").build();
String jobIdString = jobId.getJob();

// API request - starts the query.
bigquery.create(JobInfo.newBuilder(queryConfig).setJobId(jobId).build());

// Check on the progress by getting the job's updated state. Once the state
// is `DONE`, the results are ready.
Job queryJob = bigquery.getJob(
    JobId.newBuilder().setJob(jobIdString).setLocation("US").build());
System.out.printf(
    "Job %s in location %s currently in state: %s%n",
    queryJob.getJobId().getJob(),
    queryJob.getJobId().getLocation(),
    queryJob.getStatus().getState().toString());

Python

이 샘플을 시도해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용의 Python 설정 안내를 따르세요. 자세한 내용은 BigQuery Python API 참조 문서를 확인하세요.

# from google.cloud import bigquery
# client = bigquery.Client()

job_config = bigquery.QueryJobConfig()
# Run at batch priority, which won't count toward concurrent rate limit.
job_config.priority = bigquery.QueryPriority.BATCH
sql = """
    SELECT corpus
    FROM `bigquery-public-data.samples.shakespeare`
    GROUP BY corpus;
"""
# Location must match that of the dataset(s) referenced in the query.
location = 'US'

# API request - starts the query
query_job = client.query(sql, location=location, job_config=job_config)

# Check on the progress by getting the job's updated state. Once the state
# is `DONE`, the results are ready.
query_job = client.get_job(
    query_job.job_id, location=location)  # API request - fetches job
print('Job {} is currently in state {}'.format(
    query_job.job_id, query_job.state))

이 페이지가 도움이 되었나요? 평가를 부탁드립니다.

다음에 대한 의견 보내기...

도움이 필요하시나요? 지원 페이지를 방문하세요.