비용 예측 및 제어

이 페이지에서는 비용을 예측하는 방법을 설명하고 BigQuery에서 비용을 관리하기 위한 권장사항을 나열합니다. BigQuery는 주문형용량 기반 가격 책정 등 두 가지 유형의 가격 책정 모델을 제공합니다. 가격 책정에 대한 자세한 내용은 BigQuery 가격 책정을 참조하세요.

BigQuery를 사용하면 쿼리 실행 비용을 산출하고, 다양한 쿼리에서 처리되는 바이트를 계산하고, 예상 사용량을 기준으로 월별 비용을 예상할 수 있습니다. 비용을 관리하려면 쿼리 계산 최적화BigQuery 스토리지를 위한 권장사항도 따라야 합니다. 비용별 권장사항은 쿼리 비용 관리를 참조하세요.

쿼리 비용과 BigQuery 사용량을 모니터링하려면 BigQuery 감사 로그를 분석하세요.

쿼리 비용 추정

BigQuery는 비용 추정을 위해 다양한 방법을 제공합니다.

주문형 쿼리 크기 계산

주문형 결제 모델을 사용하여 다양한 유형의 쿼리에서 처리되는 바이트 수를 계산하려면 다음 섹션을 참조하세요.

Cloud Storage에서 열 형식 쿼리

외부 데이터가 ORC 또는 Parquet 형식으로 저장되어 있는 경우 청구되는 바이트 수는 BigQuery에서 읽는 열로 제한됩니다. 외부 데이터 소스의 데이터 유형은 쿼리에 의해 BigQuery 데이터 유형으로 변환되므로 읽은 바이트 수는 BigQuery 데이터 유형의 크기에 따라 계산됩니다. 데이터 유형 변환에 대한 자세한 내용은 다음 페이지를 참조하세요.

Google Cloud 가격 계산기 사용

Google Cloud 가격 계산기를 사용하면 예상 사용량을 기준으로 BigQuery의 전체적인 월별 비용을 예상할 수 있습니다.

주문형

주문형 가격 책정 모델을 사용할 때 Google Cloud 가격 계산기로 비용을 추정하려면 다음 단계를 따르세요.

  1. Google Cloud 가격 계산기를 엽니다.
  2. BigQuery를 클릭합니다.
  3. 주문형 탭을 클릭합니다.
  4. 테이블 이름에 테이블 이름을 입력합니다. 예를 들면 airports입니다.
  5. 스토리지 가격 책정의 스토리지 필드에 테이블의 예상 크기를 입력합니다. 데이터 세트 스토리지 청구 모델에 따라 물리적 스토리지 또는 논리적 스토리지만 추정하면 됩니다.
  6. 쿼리 가격 책정에 테스트 실행 또는 쿼리 검사기로 얻은 읽은 바이트 수 추정값을 입력합니다.
  7. 추정값에 추가를 클릭합니다.
  8. 추정값이 오른쪽에 나타납니다. 추정값을 저장하거나 이메일로 보낼 수 있습니다.

자세한 내용은 주문형 가격 책정을 참조하세요.

버전

BigQuery 버전과 함께 용량 기반 가격 책정 모델을 사용할 때 Google Cloud 가격 계산기로 비용을 추정하려면 다음 단계를 따르세요.

  1. Google Cloud 가격 계산기를 엽니다.
  2. BigQuery를 클릭합니다.
  3. 버전 탭을 클릭합니다.
  4. 슬롯이 사용되는 위치를 선택합니다.
  5. 버전을 선택합니다.
  6. 최대 슬롯, 기준 슬롯, 선택적 약정, 예상 자동 확장 사용률을 선택합니다.
  7. 데이터가 저장되는 위치를 선택합니다.
  8. 활성 스토리지, 장기 스토리지, 스트리밍 삽입, 스트리밍 읽기에 대한 스토리지 사용량의 추정값을 입력합니다. 데이터 세트 스토리지 청구 모델에 따라 물리적 스토리지 또는 논리적 스토리지만 추정하면 됩니다.
  9. 추정값에 추가를 클릭합니다.

자세한 내용은 용량 기반 가격 책정을 참조하세요.

쿼리 비용 관리

쿼리 비용을 최적화하려면 최적화된 스토리지쿼리 계산이 있는지 확인합니다. 쿼리 비용을 제어하는 추가 방법은 다음 섹션을 참조하세요.

쿼리를 실행하기 전에 쿼리 비용 확인

권장사항: 쿼리를 실행하기 전에 먼저 미리보기를 통해 예상 비용을 알아보세요.

쿼리는 읽은 바이트 수에 따라 요금이 청구됩니다. 쿼리를 실행하기 전에 예상 비용을 알아보려면 다음을 사용합니다.

쿼리 검사기 사용

Google Cloud 콘솔에 쿼리를 입력하면 쿼리 검사기가 쿼리 구문을 확인하고 읽을 바이트 수를 추정합니다. 이 추정값을 사용하여 가격 계산기에서 쿼리 비용을 계산할 수 있습니다.

  • 쿼리가 유효하지 않으면 쿼리 검사기에 오류 메시지가 표시됩니다. 예를 들면 다음과 같습니다.

    Not found: Table myProject:myDataset.myTable was not found in location US

  • 쿼리가 유효하면 쿼리 검사기에서 쿼리를 처리하는 데 필요한 바이트 수를 추정합니다. 예를 들면 다음과 같습니다.

    This query will process 623.1 KiB when run.

테스트 실행 수행

시험 이전을 수행하려면 다음을 수행합니다.

콘솔

  1. BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 쿼리 편집기에 쿼리를 입력합니다.

    쿼리가 유효하면 쿼리에서 처리할 데이터 양과 함께 체크표시가 자동으로 표시됩니다. 쿼리가 유효하지 않으면 느낌표가 오류 메시지와 함께 표시됩니다.

bq

--dry_run 플래그를 사용하여 다음과 같은 쿼리를 입력합니다.

bq query \
--use_legacy_sql=false \
--dry_run \
'SELECT
   COUNTRY,
   AIRPORT,
   IATA
 FROM
   `project_id`.dataset.airports
 LIMIT
   1000'
 

유효한 쿼리인 경우 이 명령어는 다음 응답을 생성합니다.

Query successfully validated. Assuming the tables are not modified,
running this query will process 10918 bytes of data.

API

API를 사용하여 테스트 실행을 수행하려면 JobConfiguration 유형에서 dryRuntrue로 설정한 채로 쿼리 작업을 제출합니다.

Go

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용Go 설정 안내를 따르세요. 자세한 내용은 BigQuery Go API 참조 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

import (
	"context"
	"fmt"
	"io"

	"cloud.google.com/go/bigquery"
)

// queryDryRun demonstrates issuing a dry run query to validate query structure and
// provide an estimate of the bytes scanned.
func queryDryRun(w io.Writer, projectID string) error {
	// projectID := "my-project-id"
	ctx := context.Background()
	client, err := bigquery.NewClient(ctx, projectID)
	if err != nil {
		return fmt.Errorf("bigquery.NewClient: %v", err)
	}
	defer client.Close()

	q := client.Query(`
	SELECT
		name,
		COUNT(*) as name_count
	FROM ` + "`bigquery-public-data.usa_names.usa_1910_2013`" + `
	WHERE state = 'WA'
	GROUP BY name`)
	q.DryRun = true
	// Location must match that of the dataset(s) referenced in the query.
	q.Location = "US"

	job, err := q.Run(ctx)
	if err != nil {
		return err
	}
	// Dry run is not asynchronous, so get the latest status and statistics.
	status := job.LastStatus()
	if err := status.Err(); err != nil {
		return err
	}
	fmt.Fprintf(w, "This query will process %d bytes\n", status.Statistics.TotalBytesProcessed)
	return nil
}

자바

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용Java 설정 안내를 따르세요. 자세한 내용은 BigQuery Java API 참조 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

import com.google.cloud.bigquery.BigQuery;
import com.google.cloud.bigquery.BigQueryException;
import com.google.cloud.bigquery.BigQueryOptions;
import com.google.cloud.bigquery.Job;
import com.google.cloud.bigquery.JobInfo;
import com.google.cloud.bigquery.JobStatistics;
import com.google.cloud.bigquery.QueryJobConfiguration;

// Sample to run dry query on the table
public class QueryDryRun {

  public static void runQueryDryRun() {
    String query =
        "SELECT name, COUNT(*) as name_count "
            + "FROM `bigquery-public-data.usa_names.usa_1910_2013` "
            + "WHERE state = 'WA' "
            + "GROUP BY name";
    queryDryRun(query);
  }

  public static void queryDryRun(String query) {
    try {
      // Initialize client that will be used to send requests. This client only needs to be created
      // once, and can be reused for multiple requests.
      BigQuery bigquery = BigQueryOptions.getDefaultInstance().getService();

      QueryJobConfiguration queryConfig =
          QueryJobConfiguration.newBuilder(query).setDryRun(true).setUseQueryCache(false).build();

      Job job = bigquery.create(JobInfo.of(queryConfig));
      JobStatistics.QueryStatistics statistics = job.getStatistics();

      System.out.println(
          "Query dry run performed successfully." + statistics.getTotalBytesProcessed());
    } catch (BigQueryException e) {
      System.out.println("Query not performed \n" + e.toString());
    }
  }
}

Node.js

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용Node.js 설정 안내를 따르세요. 자세한 내용은 BigQuery Node.js API 참조 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

// Import the Google Cloud client library
const {BigQuery} = require('@google-cloud/bigquery');
const bigquery = new BigQuery();

async function queryDryRun() {
  // Runs a dry query of the U.S. given names dataset for the state of Texas.

  const query = `SELECT name
    FROM \`bigquery-public-data.usa_names.usa_1910_2013\`
    WHERE state = 'TX'
    LIMIT 100`;

  // For all options, see https://cloud.google.com/bigquery/docs/reference/rest/v2/jobs/query
  const options = {
    query: query,
    // Location must match that of the dataset(s) referenced in the query.
    location: 'US',
    dryRun: true,
  };

  // Run the query as a job
  const [job] = await bigquery.createQueryJob(options);

  // Print the status and statistics
  console.log('Status:');
  console.log(job.metadata.status);
  console.log('\nJob Statistics:');
  console.log(job.metadata.statistics);
}

PHP

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용PHP 설정 안내를 따르세요. 자세한 내용은 BigQuery PHP API 참조 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

use Google\Cloud\BigQuery\BigQueryClient;

/** Uncomment and populate these variables in your code */
// $projectId = 'The Google project ID';
// $query = 'SELECT id, view_count FROM `bigquery-public-data.stackoverflow.posts_questions`';

// Construct a BigQuery client object.
$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);

// Set job configs
$jobConfig = $bigQuery->query($query);
$jobConfig->useQueryCache(false);
$jobConfig->dryRun(true);

// Extract query results
$queryJob = $bigQuery->startJob($jobConfig);
$info = $queryJob->info();

printf('This query will process %s bytes' . PHP_EOL, $info['statistics']['totalBytesProcessed']);

Python

QueryJobConfig.dry_run 속성을 True로 설정합니다. 테스트 실행 쿼리 구성을 제공하면 Client.query()는 항상 완료된 QueryJob을 반환합니다.

이 샘플을 사용해 보기 전에 BigQuery 빠른 시작: 클라이언트 라이브러리 사용Python 설정 안내를 따르세요. 자세한 내용은 BigQuery Python API 참조 문서를 확인하세요.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.

from google.cloud import bigquery

# Construct a BigQuery client object.
client = bigquery.Client()

job_config = bigquery.QueryJobConfig(dry_run=True, use_query_cache=False)

# Start the query, passing in the extra configuration.
query_job = client.query(
    (
        "SELECT name, COUNT(*) as name_count "
        "FROM `bigquery-public-data.usa_names.usa_1910_2013` "
        "WHERE state = 'WA' "
        "GROUP BY name"
    ),
    job_config=job_config,
)  # Make an API request.

# A dry run query completes immediately.
print("This query will process {} bytes.".format(query_job.total_bytes_processed))

테이블 데이터 탐색을 위한 쿼리 실행 방지

권장사항: 쿼리를 실행하여 테이블 데이터를 탐색하거나 미리 보지 마세요.

데이터를 실험하거나 탐색하는 경우, 테이블 미리보기 옵션을 사용하여 할당량에 영향을 주지 않으면서 데이터를 무료로 볼 수 있습니다.

BigQuery는 다음과 같은 데이터 미리보기 옵션을 지원합니다.

  • Google Cloud 콘솔의 테이블 세부정보 페이지에서 미리보기 탭을 클릭하여 데이터를 샘플링합니다.
  • bq 명령줄 도구에서 bq head 명령어를 사용하여 미리보기를 수행할 행 번호를 지정합니다.
  • API에서 tabledata.list를 사용하여 지정된 행 세트에서 테이블 데이터를 검색합니다.

청구되는 바이트 수 제한

권장사항: 쿼리 비용을 제한하려면 청구 가능한 최대 바이트 설정을 사용합니다.

청구 가능한 최대 바이트 설정을 사용하여 쿼리에 대해 청구되는 바이트 수를 제한할 수 있습니다. 청구 가능한 최대 바이트를 설정하면 쿼리가 실행되기 전에 쿼리가 읽는 바이트 수가 추정됩니다. 예상 바이트 수가 한도를 초과하면 비용이 발생하지 않고 쿼리는 실패합니다.

클러스터링된 테이블의 경우 쿼리에 청구되는 바이트 수의 추정값은 상한값이며, 쿼리 실행 후 청구되는 실제 바이트 수보다 클 수 있습니다. 따라서 경우에 따라 청구 가능한 최대 바이트를 설정한 경우 청구 가능한 실제 바이트가 청구 가능한 최대 바이트 설정을 초과하지 않더라도 클러스터링된 테이블의 쿼리가 실패할 수 있습니다.

청구 가능한 최대 바이트 설정으로 인해 쿼리가 실패하면 다음과 유사한 오류가 반환됩니다.

Error: Query exceeded limit for bytes billed: 1000000. 10485760 or higher required.

청구 가능한 최대 바이트를 설정하려면 다음을 따르세요.

콘솔

  1. 쿼리 편집기에서 더보기 > 쿼리 설정 > 고급 옵션을 클릭합니다.
  2. 청구 가능한 최대 바이트 필드에 정수를 입력합니다.
  3. 저장을 클릭합니다.

bq

bq query 명령어를 --maximum_bytes_billed 플래그와 함께 사용합니다.

  bq query --maximum_bytes_billed=1000000 \
  --use_legacy_sql=false \
  'SELECT
     word
   FROM
     `bigquery-public-data`.samples.shakespeare'

API

JobConfigurationQuery 또는 QueryRequest에서 maximumBytesBilled 속성을 설정합니다.

클러스터링되지 않은 테이블에서 LIMIT를 사용하지 않음

권장사항: 클러스터링되지 않은 테이블의 경우 비용 관리 방법으로 LIMIT 절을 사용하지 마세요.

클러스터링되지 않은 테이블의 경우 쿼리에 LIMIT 절을 적용해도 쿼리가 읽는 데이터 양은 달라지지 않습니다. 쿼리가 하위 집합만 반환하더라도 쿼리에 표시된 대로 전체 테이블에서 읽은 모든 바이트 요금이 청구됩니다. 클러스터링된 테이블을 사용하면 LIMIT 절이 스캔되는 바이트 수를 줄일 수 있습니다. 결과를 가져오기 위해 충분한 블록이 스캔되면 스캔이 중지되기 때문입니다. 스캔된 바이트에 대해서만 요금이 청구됩니다.

대시보드에서 비용을 확인하고 감사 로그 쿼리

권장사항: BigQuery 사용량을 조정하기 위해 결제 데이터를 확인할 수 있는 대시보드를 만듭니다. 또한 감사 로그를 BigQuery로 스트리밍하여 사용 패턴을 분석할 수도 있습니다.

BigQuery로 결제 데이터를 내보내고 Looker Studio와 같은 도구로 시각화할 수 있습니다. 결제 대시보드 만들기에 대한 튜토리얼은 BigQuery와 Looker Studio를 사용하여 Google Cloud 결제 시각화를 참조하세요.

또한 감사 로그를 BigQuery에 스트리밍하여 로그에서 사용자별 쿼리 비용과 같은 사용 패턴을 분석할 수 있습니다.

쿼리 결과를 단계별로 구체화하기

권장사항: 가능한 경우 쿼리 결과를 단계별로 구체화합니다.

대량의 다단계 쿼리를 만들면 실행할 때마다 BigQuery가 쿼리에 필요한 모든 데이터를 읽습니다. 쿼리가 실행될 때마다 읽는 모든 데이터에 대한 요금이 청구됩니다.

하지만 쿼리를 단계별로 분할하면 각 단계에서 쿼리 결과를 대상 테이블에 기록하여 구체화할 수 있습니다. 작은 대상 테이블을 쿼리하므로 읽는 데이터의 양이 줄어들고 비용이 절감됩니다. 구체화된 결과를 저장하는 비용이 많은 양의 데이터를 처리하는 비용보다 훨씬 낮습니다.

대상 테이블에 테이블 만료 시간 사용

권장사항: 대량의 쿼리 결과를 대상 테이블에 쓰는 경우, 기본 테이블 만료 시간을 사용하여 더 이상 필요 없는 데이터를 삭제합니다.

BigQuery 스토리지에 대량의 결과 집합을 보관하면 비용이 발생합니다. 결과에 영구적으로 액세스할 필요가 없으면 기본 테이블 만료 시간을 사용하여 자동으로 데이터를 삭제합니다.

자세한 내용은 저장소 가격을 참조하세요.

다음 단계