할당량 및 한도

이 문서에서는 BigQuery에 적용되는 할당량한도에 대해 설명합니다.

Google Cloud는 공정성을 보장하고 리소스 사용 및 가용성의 급증을 줄이기 위해 할당량을 사용합니다. 할당량은 Google Cloud 프로젝트에서 사용할 수 있는 Google Cloud 리소스의 양을 제한합니다. 할당량은 하드웨어, 소프트웨어, 네트워크 구성요소를 포함하여 다양한 리소스 유형에 적용됩니다. 예를 들어 할당량에 따라 서비스에 대한 API 호출 수, 프로젝트에서 동시에 사용하는 부하 분산기 수, 만들 수 있는 프로젝트 수가 제한될 수 있습니다. 할당량은 서비스 과부하를 방지하여 Google Cloud 사용자 커뮤니티를 보호합니다. 할당량은 자체 Google Cloud 리소스를 관리하는 데도 도움이 됩니다.

Cloud Quotas 시스템은 다음을 수행합니다.

  • Google Cloud 제품 및 서비스 소비량 모니터링
  • 리소스 소비 제한
  • 할당량 값 변경을 요청할 수 있는 수단 제공

대부분의 경우 할당량이 허용하는 것보다 더 많은 리소스를 소비하려고 하면 시스템에서 리소스에 대한 액세스를 차단하고 수행하려는 작업이 실패합니다.

할당량은 일반적으로 Google Cloud 프로젝트 수준에서 적용됩니다. 한 프로젝트의 리소스를 사용해도 다른 프로젝트에서 사용 가능한 할당량에는 영향을 미치지 않습니다. Google Cloud 프로젝트 내에서 할당량은 모든 애플리케이션과 IP 주소에 공유됩니다.

BigQuery 리소스에도 한도가 있습니다. 이 한도는 할당량 시스템과 관련이 없습니다. 별도로 명시되지 않는 한 한도를 변경할 수 없습니다.

기본적으로 BigQuery 할당량 및 한도는 프로젝트별로 적용됩니다. 다른 단위로 적용되는 할당량과 한도는 테이블당 최대 열 수 또는 사용자당 최대 동시 API 요청 수 등으로 표시됩니다. 구체적인 정책은 리소스 가용성, 사용자 프로필, 서비스 사용 기록, 기타 요인에 따라 다르며 사전 통보 없이 변경될 수 있습니다.

할당량 보충

일일 할당량은 비율을 제한하는 동작을 유도하기 위해 온종일 정기적으로 보충됩니다. 할당량이 소진되었을 때 장시간 중단되지 않도록 간헐적인 보충도 이루어집니다. 할당량은 하루에 한 번 전체적으로 보충되기보다는 대개 몇 분 단위로 제공됩니다.

할당량 상향 조정 요청

대부분의 할당량은 Google Cloud 콘솔을 사용해 늘리거나 줄입니다. 자세한 내용은 할당량 상향 요청을 참조하세요.

Google Cloud 콘솔의 할당량 상향 요청 절차에 대한 단계별 안내를 보려면 둘러보기를 클릭하세요.

둘러보기

사용 할당량 상한

할당량 재정의를 만들어 특정 리소스의 사용량을 제한하는 방법은 할당량 재정의 만들기를 참조하세요.

필수 권한

Google Cloud 콘솔에서 BigQuery 할당량을 보고 업데이트하려면 Google Cloud 할당량과 동일한 권한이 필요합니다. 자세한 내용은 Google Cloud 할당량 권한을 참조하세요.

문제 해결

할당량 및 한도 관련 오류 문제 해결에 대한 자세한 내용은 BigQuery 할당량 오류 문제 해결을 참조하세요.

작업

할당량과 한도는 BigQuery에서 사용자를 대신하여 Google Cloud 콘솔, bq 명령줄 도구를 사용하거나 REST API나 클라이언트 라이브러리를 사용하여 프로그래매틱 방식으로 실행하는 작업에 적용됩니다.

쿼리 작업

대화형 쿼리, 예약된 쿼리를 실행하여 자동으로 생성되는 쿼리 작업과 jobs.query 및 쿼리 유형 jobs.insert API 메서드를 사용하여 제출된 작업에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
일일 쿼리 사용량 무제한 프로젝트에서 쿼리가 처리할 수 있는 바이트 수에는 제한이 없습니다.
Google Cloud 콘솔에서 할당량 보기
사용자당 일일 쿼리 사용량 무제한 사용자 쿼리가 매일 처리할 수 있는 바이트 수에는 제한이 없습니다.
Google Cloud 콘솔에서 할당량 보기
Cloud SQL 통합 쿼리의 리전 간 일일 바이트 1TB BigQuery 쿼리 처리 위치와 Cloud SQL 인스턴스 위치가 다르면 쿼리가 리전 간 쿼리입니다. 프로젝트에서 리전 간 쿼리를 하루 최대 1TB까지 실행할 수 있습니다. Cloud SQL 통합 쿼리를 참조하세요.
Google Cloud 콘솔에서 할당량 보기
클라우드 간 일일 전송 바이트 수 1TB Amazon S3 버킷 또는 Azure Blob Storage에서 하루에 최대 1TB의 데이터를 전송할 수 있습니다. 자세한 내용은 Amazon S3에서 클라우드 간 전송Azure를 참조하세요.
Google Cloud 콘솔에서 할당량 보기

대화형 쿼리, 예약된 쿼리를 실행하여 자동으로 생성되는 쿼리 작업과 jobs.query 및 쿼리 유형 jobs.insert API 메서드를 사용하여 제출된 작업에는 다음 한도가 적용됩니다.

한도 기본값 참고
큐에 추가된 대화형 쿼리의 최대 개수 쿼리 1,000회 프로젝트는 최대 1,000개까지 대화형 쿼리를 큐에 넣을 수 있습니다. 이 한도를 초과하는 추가 대화형 쿼리는 할당량 오류를 반환합니다.
큐에 추가된 일괄 쿼리의 최대 개수 20,000개 쿼리 프로젝트는 최대 20,000개까지 일괄 쿼리를 큐에 넣을 수 있습니다. 이 한도를 초과하는 추가 일괄 쿼리는 할당량 오류를 반환합니다.
Bigtable 외부 데이터 소스를 대상으로 한 동시 대화형 쿼리의 최대 개수 쿼리 16개 프로젝트에서 Bigtable 외부 데이터 소스에 대한 동시 쿼리를 최대 16개까지 실행할 수 있습니다.
원격 함수가 포함된 최대 동시 실행 쿼리 수 쿼리 10개 원격 함수를 사용하여 프로젝트당 쿼리를 최대 10개까지 동시에 실행할 수 있습니다.
최대 동시 멀티 문 쿼리 수 멀티 문 쿼리 1,000개 프로젝트는 최대 1,000개의 동시 멀티 문 쿼리를 실행할 수 있습니다. 멀티 문 쿼리와 관련된 다른 할당량 및 한도는 멀티 문 쿼리를 참조하세요.
UDF가 포함된 최대 동시 legacy SQL 쿼리 수 쿼리 6개 프로젝트는 사용자 정의 함수(UDF)를 사용하여 최대 6개의 동시 legacy SQL 쿼리를 실행할 수 있습니다. 이 한도에는 대화형일괄 쿼리가 모두 포함됩니다. UDF가 포함된 대화형 쿼리 역시 대화형 쿼리에 대한 동시 실행 한도에 합산됩니다. 이 한도는 GoogleSQL 쿼리에는 적용되지 않습니다.
일일 쿼리 크기 한도 무제한 기본적으로 일일 쿼리 크기 제한은 없습니다. 하지만 커스텀 할당량을 생성하여 사용자가 쿼리할 수 있는 데이터의 양을 설정함으로써 일일 쿼리 사용량 또는 사용자당 일일 쿼리 사용량을 제어할 수 있습니다.
일일 대상 테이블 업데이트 한도 일일 최대 테이블 작업 수를 참조하세요. 쿼리 작업의 대상 테이블 업데이트는 대상 테이블의 일일 최대 테이블 작업 수 한도로 집계됩니다. 대상 테이블 업데이트에는 Google Cloud 콘솔을 사용하거나 bq 명령줄 도구를 사용하거나 jobs.query 및 query-type jobs.insert API 메서드를 호출하여 실행하는 쿼리로 수행되는 추가 작업 및 덮어쓰기 작업이 포함됩니다.
쿼리/멀티 문 쿼리 실행 시간 제한 6시간

쿼리 또는 멀티 문 쿼리는 최대 6시간 동안 실행된 후 실패합니다. 하지만 경우에 따라 쿼리가 재시도됩니다. 쿼리는 최대 3회까지 시도할 수 있으며 각 시도는 최대 6시간 동안 실행될 수 있습니다. 따라서 쿼리의 총 실행 시간이 6시간을 초과할 수 있습니다.

CREATE MODEL 작업 제한 시간은 기본적으로 24시간으로 설정되며, 72시간에 시간 초과되는 시계열, AutoML, 초매개변수는 예외입니다.

쿼리당 참조되는 최대 리소스 개수 리소스 1,000개 완전히 확장하면 한 쿼리에서 최대 1,000개의 고유한 테이블, 고유한 , 고유한 사용자 정의 함수, 고유한 테이블 함수를 참조할 수 있습니다. 이 한도에는 다음이 포함됩니다.
  • 쿼리에서 직접 참조하는 테이블, 뷰, UDF, 테이블 함수
  • 쿼리에서 참조하는 다른 뷰/UDF/테이블 함수에서 참조하는 테이블, 뷰, UDF, 테이블 함수
최대 SQL 쿼리 문자 길이 1,024,000자(영문 기준) SQL 쿼리 최대 길이는 1,024,000자(영문 기준)입니다. 이 한도에는 주석 및 화이트 스페이스 문자가 포함됩니다. 쿼리가 더 길면 The query is too large. 오류가 발생합니다. 이 한도를 초과하지 않으려면 큰 배열이나 목록을 쿼리 매개변수로 바꾸고 세션에서 긴 쿼리를 쿼리 여러 개로 분할하는 것이 좋습니다.
해결되지 않은 legacy SQL 쿼리 최대 길이 256KB 해결되지 않은 legacy SQL 쿼리의 최대 길이는 256KB입니다. 쿼리가 더 길면 The query is too large. 오류가 발생합니다. 이 한도를 초과하지 않으려면 큰 배열 또는 목록을 쿼리 매개변수로 교체하는 것이 좋습니다.
해결되지 않은 GoogleSQL 쿼리 최대 길이 1MB 해결되지 않은 GoogleSQL 쿼리의 최대 길이는 1MB입니다. 쿼리가 더 길면 The query is too large. 오류가 발생합니다. 이 한도를 초과하지 않으려면 큰 배열 또는 목록을 쿼리 매개변수로 교체하는 것이 좋습니다.
해결된 기존 쿼리 및 GoogleSQL 쿼리 최대 길이 12MB 해결된 쿼리 길이 제한에는 쿼리에서 참조된 모든 뷰와 와일드 카드 테이블 길이가 포함됩니다.
최대 GoogleSQL 쿼리 매개변수 수 매개변수 10,000개 GoogleSQL 쿼리에 최대 10,000개의 매개변수를 포함할 수 있습니다.
최대 요청 크기 10MB 요청 크기는 쿼리 매개변수와 같은 추가 속성을 포함하여 최대 10MB까지 가능합니다.
최대 응답 크기 10GB 압축 크기는 데이터의 압축비에 따라 달라집니다. 실제 응답 크기는 10GB보다 훨씬 더 클 수 있습니다. 대상 테이블에 대량의 쿼리 결과를 쓰는 경우 최대 응답 크기는 무제한입니다.
최대 행 크기 100MB 이 한도는 행 데이터의 내부 표현을 기준으로 하므로 최대 행 크기는 근사치입니다. 최대 행 크기 한도는 쿼리 작업 실행의 특정 단계에서 적용됩니다.
테이블, 쿼리 결과 또는 뷰 정의의 최대 열 수 열 10,000개 테이블, 쿼리 결과 또는 뷰 정의 하나에 최대 10,000개의 열을 포함할 수 있습니다.
주문형 가격의 최대 동시 슬롯 수 프로젝트당 슬롯 2,000개

조직당 슬롯 20,000개
주문형 가격 책정을 사용하면 프로젝트에 동시 슬롯을 최대 2,000개까지 가질 수 있습니다. 또한 조직 수준의 동시 슬롯 한도는 20,000개입니다. 총 수요가 20,000개 슬롯보다 높으면 BigQuery가 조직 내에서 프로젝트 간에 슬롯을 공정하게 할당하려고 시도합니다. BigQuery 슬롯은 단일 프로젝트의 모든 쿼리 간에 공유됩니다. BigQuery는 쿼리를 가속화하기 위해 이 한도를 초과하여 버스팅할 수 있습니다. 현재 사용 중인 슬롯 수를 확인하려면 Cloud Monitoring을 사용한 BigQuery 모니터링을 참조하세요.
주문형 가격 책정의 스캔 데이터당 최대 CPU 사용량 스캔된 MiB당 256CPU-초 주문형 가격 책정의 경우 쿼리에서 스캔 데이터에 대해 MiB당 최대 약 256개의 CPU 레코드를 사용할 수 있습니다. 처리되는 데이터 양에 대해 쿼리의 CPU 사용률이 너무 높으면 billingTierLimitExceeded 오류와 함께 쿼리가 실패합니다. 자세한 내용은 billingTierLimitExceeded를 참조하세요.
멀티 문 트랜잭션 테이블 변형 테이블 100개 트랜잭션은 최대 100개 테이블에서 데이터를 변형할 수 있습니다.
멀티 문 트랜잭션 파티션 수정사항 파티션 수정사항 100,000개 트랜잭션은 최대 100,000개까지 파티션 수정을 수행할 수 있습니다.
BigQuery Omni 최대 쿼리 결과 크기 20GiB 비압축 최대 결과 크기는 Azure 또는 AWS 데이터를 쿼리할 때 20GiB 로컬 바이트입니다. 쿼리 결과가 20GiB보다 크면 결과를 Amazon S3 또는 Blob Storage로 내보내는 것이 좋습니다. 자세한 내용은 BigQuery Omni 제한사항을 참조하세요.
BigQuery Omni 일일 총 쿼리 결과 크기 1TB 프로젝트의 총 쿼리 결과 크기는 1일 1TB입니다. 자세한 내용은 BigQuery Omni 제한사항을 참조하세요.
BigQuery Omni 최대 행 크기 10MiB Azure 또는 AWS 데이터를 쿼리할 때 최대 행 크기는 10MiB입니다. 자세한 내용은 BigQuery Omni 제한사항을 참조하세요.

예약된 쿼리가 BigQuery Data Transfer Service 기능을 사용하더라도 전송에 해당되지 않으며 로드 작업 한도가 적용되지 않습니다.

내보내기 작업

bq 명령줄 도구, Google Cloud 콘솔 또는 내보내기 유형 jobs.insert API 메서드를 사용하여 BigQuery에서 데이터를 내보내는 작업에는 다음 한도가 적용됩니다.

한도 기본값 참고
내보낸 일일 최대 바이트 수 50TiB 공유 슬롯 풀을 사용하여 프로젝트에서 하루에 최대 50TiB(테비바이트)의 데이터를 무료로 내보낼 수 있습니다. 내보낸 바이트 수에 대한 알림을 제공하는 Cloud Monitoring 알림 정책을 설정할 수 있습니다. 하루에 50TiB(테비바이트)를 초과하는 데이터를 내보내려면 다음 중 하나를 수행하세요.
일일 내보내기 작업의 최대 개수 내보내기 100,000회 프로젝트에서 하루 최대 100,000개까지 내보내기를 실행할 수 있습니다. 하루에 100,000개를 초과하는 내보내기를 실행하려면 다음 중 하나를 수행합니다.
단일 파일로 내보내는 최대 테이블 크기 1GB 최대 1GB의 테이블 데이터를 단일 파일로 내보낼 수 있습니다. 1GB 넘는 데이터를 내보내려면 와일드 카드를 사용하여 데이터를 여러 파일로 내보냅니다. 데이터를 여러 파일로 내보낼 때는 파일 크기가 달라집니다. 일부 경우에는 출력 파일 크기가 1GB를 초과합니다.
내보내기당 와일드 카드 URI URI 500개 내보내기 하나에 최대 500개의 와일드 카드 URI가 포함될 수 있습니다.

현재 내보내기 작업 사용량 보기에 대한 자세한 내용은 현재 할당량 사용량 보기를 참조하세요.

로드 작업

Google Cloud 콘솔, bq 명령줄 도구 또는 부하 유형 jobs.insert API 메서드를 사용하여 BigQuery에 데이터를 로드하는 경우 다음 한도가 적용됩니다.

한도 기본값 참고
테이블당 일일 로드 작업 수 작업 1,500개 실패한 로드 작업을 포함한 로드 작업은 대상 테이블의 일일 최대 테이블 작업 수 제한에 포함됩니다. 표준 테이블 및 파티션을 나눈 테이블의 일일 최대 테이블 작업 수 제한에 대한 자세한 내용은 테이블을 참조하세요.
일일 로드 작업 수 작업 100,000개 24시간마다 프로젝트에 최대 100,000개의 로드 작업 할당량이 보충됩니다. 실패한 로드 작업도 이 한도에 반영됩니다. 경우에 따라 전일 할당량이 완전히 사용되지 않은 경우 24시간 내에 100,000개 이상의 로드 작업을 실행할 수 있습니다.
테이블당 최대 열 수 열 10,000개 테이블 하나에 최대 10,000개의 열을 포함할 수 있습니다.
로드 작업당 최대 크기 15TB 모든 CSV, JSON, Avro, Parquet, ORC 입력 파일은 총 크기가 최대 15TB일 수 있습니다.
작업 구성의 최대 소스 URI 수 URI 10,000개 작업 구성 하나에 최대 10,000개의 소스 URI가 포함될 수 있습니다.
로드 작업당 최대 파일 수 10,000,000개 파일 로드 작업 하나에 모든 와일드 카드 URI와 일치하는 모든 파일을 포함한 총 1,000만 개의 파일을 포함할 수 있습니다.
소스 Cloud Storage 버킷의 최대 파일 수 파일 약 60,000,000개 로드 작업은 최대 약 60,000,000개의 파일을 포함하는 Cloud Storage 버킷에서 읽을 수 있습니다.
로드 작업 실행 시간 제한 6시간 로드 작업이 6시간 넘게 실행되면 실패합니다.
Avro: 파일 데이터 블록의 최대 크기 16MB Avro 파일 데이터 블록의 크기는 16MB로 제한됩니다.
CSV: 최대 셀 크기 100MB CSV 셀의 최대 크기는 100MB입니다.
CSV: 최대 행 크기 100MB CSV 행의 최대 크기는 100MB입니다.
CSV: 최대 파일 크기 - 압축 4GB 압축된 CSV 파일의 크기는 4GB로 제한됩니다.
CSV: 최대 파일 크기 - 비압축 5TB 비압축 CSV 파일의 크기는 5TB로 제한됩니다.
줄바꿈으로 구분된 JSON(ndJSON): 최대 행 크기 100MB ndJSON 행의 최대 크기는 100MB입니다.
ndJSON: 최대 파일 크기 - 압축 4GB 압축된 ndJSON 파일의 크기는 4GB로 제한됩니다.
ndJSON: 최대 파일 크기 - 비압축 5TB 비압축 ndJSON 파일의 크기는 5TB로 제한됩니다.

잦은 업데이트로 인해 로드 작업 한도를 정기적으로 초과한다면 BigQuery로 데이터를 스트리밍하는 것이 좋습니다.

현재 로드 작업 사용량 보기에 대한 자세한 내용은 현재 할당량 사용량 보기를 참조하세요.

BigQuery Data Transfer Service 로드 작업 할당량 고려사항

BigQuery Data Transfer Service 전송으로 만든 로드 작업은 로드 작업의 BigQuery 할당량에 포함됩니다. 전송 및 다른 로드 작업으로 인해 quotaExceeded 오류가 발생하지 않도록 각 프로젝트에서 사용 설정할 전송량을 고려하는 것이 중요합니다.

다음 수식을 사용하여 전송에 필요한 로드 작업 수를 추정할 수 있습니다.

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

각 항목의 의미는 다음과 같습니다.

  • Number of transfers는 프로젝트에서 사용하는 전송 구성 수입니다.
  • Number of tables는 특정한 전송 유형에서 생성된 테이블 수입니다. 테이블 수는 전송 유형에 따라 다릅니다.

    • Campaign Manager 전송은 약 25개의 테이블을 만듭니다.
    • Google Ads 전송은 약 60개의 테이블을 만듭니다.
    • Google Ad Manager 전송은 약 40개의 테이블을 만듭니다.
    • Google Play 전송은 약 25개의 테이블을 만듭니다.
    • Search Ads 360 전송은 약 50개의 테이블을 만듭니다.
    • YouTube 전송은 약 50개의 테이블을 만듭니다.
  • Schedule frequency는 전송이 실행되는 빈도를 설명합니다. 각 전송 유형에 전송 실행 일정이 제공됩니다.

  • Refresh window는 데이터 전송에 포함될 일 수입니다. 1을 입력하는 경우 일일 백필은 없습니다.

복사 작업

표준 테이블, 테이블 클론 또는 테이블 스냅샷의 복사, 클론 또는 스냅샷을 만드는 작업을 포함하여 테이블 복사의 BigQuery 작업에 다음 한도가 적용됩니다. 이 한도는 Google Cloud 콘솔, bq 명령줄 도구를 사용하거나 작업 구성에서 copy 필드를 지정하는 jobs.insert 메서드로 생성된 작업에 적용됩니다. 복사 작업은 성공이나 실패 여부에 관계없이 이러한 한도에 포함됩니다.

한도 기본값 참고
대상 테이블당 일일 복사 작업 수 일일 테이블 작업 수를 참조하세요.
일일 복사 작업 수 작업 100,000개 프로젝트에서 하루에 최대 100,000개의 복사 작업을 실행할 수 있습니다.
대상 테이블당 일일 리전 간 복사 작업 수 작업 100개 프로젝트에서 대상 테이블의 리전 간 복사 작업은 하루에 최대 100개까지 실행할 수 있습니다.
일일 리전 간 복사 작업 수 작업 2,000개 프로젝트에서 하루에 최대 2,000개의 리전 간 복사 작업을 실행할 수 있습니다.
복사할 소스 테이블 수 소스 테이블 1,200개 복사 작업당 최대 1,200개의 소스 테이블에서 복사할 수 있습니다.

현재 복사 작업 사용량 보기에 대한 자세한 내용은 복사 작업 - 현재 할당량 사용량 보기를 참조하세요.

데이터 세트 복사에는 다음 한도가 적용됩니다.

한도 기본값 참고
소스 데이터 세트의 최대 테이블 수 테이블 20,000개 한 소스 데이터 세트에 최대 20,000개의 테이블이 있을 수 있습니다.
동일 리전의 대상 데이터 세트에 복사 가능한 실행당 최대 테이블 수 테이블 20,000개 프로젝트에서 실행당 20,000개의 테이블을 같은 리전에 있는 대상 데이터 세트에 복사할 수 있습니다.
다른 리전의 대상 데이터 세트에 복사 가능한 실행당 최대 테이블 수 테이블 1,000개 프로젝트에서 실행당 1,000개의 테이블을 다른 리전에 있는 대상 데이터 세트에 복사할 수 있습니다. 예를 들어 테이블 8,000개가 포함된 데이터 세트의 리전 간 복사를 구성하는 경우 BigQuery Data Transfer Service는 자동으로 8개의 실행을 순차적으로 생성합니다. 첫 번째 실행에서 테이블 1,000개가 복사됩니다. 24시간 후 두 번째 실행에서 1,000개의 테이블을 복사합니다. 이 프로세스는 데이터 세트의 모든 테이블이 복사될 때까지 계속되며, 데이터 세트당 최대 테이블 수는 20,000개입니다.

예약

예약에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
EU 리전의 총 슬롯 수 슬롯 5,000개 Google Cloud 콘솔을 사용하여 EU 멀티 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수입니다.
Google Cloud 콘솔에서 할당량 보기
미국 리전의 총 슬롯 수 슬롯 10,000개 Google Cloud 콘솔을 사용하여 미국 멀티 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수입니다.
Google Cloud 콘솔에서 할당량 보기
us-east1 리전의 총 슬롯 수 슬롯 4,000개 Google Cloud 콘솔을 사용하여 나열된 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수입니다.
Google Cloud 콘솔에서 할당량 보기
다음 리전의 총 슬롯 수:
  • asia-south1
  • asia-southeast1
  • europe-west2
  • us-central1
  • us-west1
슬롯 2,000개 Google Cloud 콘솔을 사용하여 나열된 각 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수입니다.
Google Cloud 콘솔에서 할당량 보기
다음 리전의 총 슬롯 수:
  • asia-east1
  • asia-northeast1
  • asia-northeast3
  • asia-southeast2
  • australia-southeast1
  • europe-north1
  • europe-west1
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us-east4
  • southamerica-east1
슬롯 1,000개 Google Cloud 콘솔을 사용하여 나열된 각 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수입니다.
Google Cloud 콘솔에서 할당량 보기
BigQuery Omni 리전의 총 슬롯 수 슬롯 100개 Google Cloud 콘솔을 사용하여 BigQuery Omni 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수
Google Cloud 콘솔에서 할당량 보기
다른 모든 리전의 총 슬롯 수 슬롯 500개 Google Cloud 콘솔을 사용하여 서로 다른 리전에서 구매할 수 있는 최대 BigQuery 슬롯 수
Google Cloud 콘솔에서 할당량 보기

예약에 다음 한도가 적용됩니다.

한도 참고
슬롯 예약을 위한 관리 프로젝트 조직당 5개의 프로젝트 특정 위치/리전의 슬롯에 대한 예약 또는 활성 약정을 포함할 수 있는 조직 내 최대 프로젝트 수입니다.
표준 버전 예약의 최대 개수 프로젝트당 예약 10개 특정 위치/리전의 조직 내 관리 프로젝트당 표준 버전 최대 예약 수입니다.
Enterprise 또는 Enterprise Plus 버전 예약의 최대 개수 프로젝트당 예약 200개 특정 위치/리전의 조직 내 관리 프로젝트당 최대 Enterprise 또는 Enterprise Plus 버전 예약 수입니다.
CONTINUOUS 작업 유형의 예약 할당과 연결된 예약의 최대 슬롯 수입니다. 슬롯 500개 CONTINUOUS 작업 유형의 예약 할당을 만들려면 연결된 예약에 슬롯이 500개를 초과할 수 없습니다.

데이터 세트

BigQuery 데이터 세트에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 데이터 세트 수 무제한 프로젝트에서 사용할 수 있는 데이터 세트 수에는 제한이 없습니다.
데이터 세트당 테이블 수 무제한 API 호출을 사용할 때 데이터 세트의 테이블 수가 50,000개에 근접하면 열거 성능이 저하됩니다. Google Cloud 콘솔은 각 데이터 세트에 대해 최대 50,000개의 테이블을 표시할 수 있습니다.
데이터 세트에 대한 액세스 제어 목록(ACL)의 승인된 리소스 수 2,500개의 리소스 데이터 세트의 액세스 제어 목록(ACL)에는 승인된 뷰, 승인된 데이터 세트, 승인된 함수를 포함하여 최대 2,500개의 승인된 리소스가 포함될 수 있습니다. 승인된 뷰 수가 많아 이 한도를 초과하는 경우 뷰를 승인된 데이터 세트로 그룹화하는 것이 좋습니다.
데이터 세트별 10초당 데이터 세트 업데이트 작업 수 작업 5개 프로젝트에서 10초마다 최대 5개의 데이터 세트 업데이트 작업을 수행할 수 있습니다. 데이터 세트 업데이트 한도에는 다음에서 수행되는 모든 메타데이터 업데이트 작업이 포함됩니다.
데이터 세트 설명의 최대 길이 16,384자(영문 기준) 데이터 세트에 설명을 추가할 때 최대 16,384자(영문 기준)의 텍스트를 입력할 수 있습니다.

테이블

모든 테이블

모든 BigQuery 테이블에 다음 한도가 적용됩니다.

한도 기본값 참고
열 이름 최대 길이 300자 열 이름은 최대 300자(영문 기준)까지 가능합니다.
열 설명의 최대 길이 1,024자(영문 기준) 열에 설명을 추가할 때 최대 1,024자(영문 기준)의 텍스트를 입력할 수 있습니다.
중첩 레코드의 최대 깊이 수준 15개 RECORD 유형 열은 하위 레코드로 불리는 중첩된 RECORD 유형을 포함할 수 있습니다. 최대 중첩 깊이 제한은 15개 수준입니다. 이 제한은 레코드가 스칼라 기반이든 배열 기반(반복)이든 상관없이 적용됩니다.

표준 테이블

BigQuery 표준(기본 제공) 테이블에는 다음 한도가 적용됩니다.

한도 기본값 참고
일일 테이블 수정 수정 1,500회

프로젝트에서는 데이터를 추가하거나 데이터를 업데이트하거나 테이블을 자르는 등 테이블당 하루에 최대 1,500개의 테이블 수정을 수행할 수 있습니다. 이 한도는 변경할 수 없으며, 대상 테이블에 추가 또는 덮어쓰는 모든 로드 작업, 복사 작업쿼리 작업의 결합된 총계를 포함합니다.

DML 문은 일일 테이블 수정 횟수에 포함되지 않습니다.

스트리밍 데이터는 일일 테이블 수정 횟수에 포함되지 않습니다.

테이블당 최대 테이블 메타데이터 업데이트 작업 속도 10초당 작업 5개 프로젝트에서 10초마다 테이블당 최대 5개의 테이블 메타데이터 업데이트 작업을 수행할 수 있습니다. 이 한도는 다음에서 수행되는 모든 테이블 메타데이터 업데이트 작업에 적용됩니다. 이 한도에는 대상 테이블에 데이터를 추가하거나 덮어쓰거나 DML DELETE, INSERT, MERGE, TRUNCATE TABLE, 또는 UPDATE 문을 사용하여 테이블에 데이터를 쓰는 모든 로드 작업, 복사 작업 및 쿼리 작업의 합계도 포함됩니다. DML 문은 이러한 제한에 포함되지만 제한에 도달하더라도 차단되지 않습니다. DML 작업에는 전용 비율 제한이 있습니다.

이 한도를 초과하면 Exceeded rate limits: too many table update operations for this table과 같은 오류 메시지가 표시됩니다. 일시적인 오류이므로 지수 백오프로 다시 시도할 수 있습니다.

이 한도로 집계되는 작업을 식별하려면 로그를 검사하면 됩니다. 이 오류를 진단 및 해결하기 위한 안내는 할당량 오류 문제 해결을 참조하세요.

테이블당 최대 열 수 열 10,000개 각 테이블, 쿼리 결과 또는 뷰 정의에 최대 10,000개의 열을 포함할 수 있습니다.

외부 테이블

데이터가 Parquet, ORC, Avro, CSV 또는 JSON 형식으로 Cloud Storage에 저장되는 BigQuery 테이블에는 다음 한도가 적용됩니다.

한도 기본값 참고
외부 테이블당 최대 소스 URI 수 URI 10,000개 각 외부 테이블에 최대 10,000개의 소스 URI가 포함될 수 있습니다.
외부 테이블당 최대 파일 수 10,000,000개 파일 외부 테이블 하나에 모든 와일드 카드 URI와 일치하는 모든 파일을 포함해 최대 1,000만 개의 파일을 포함할 수 있습니다.
외부 테이블당 Cloud Storage에 저장된 최대 데이터 크기 600TB 외부 테이블 하나의 모든 입력 파일에서 최대 600테라바이트까지 사용할 수 있습니다. 이 한도는 Cloud Storage에 저장되는 파일 크기에 적용됩니다. 이 크기는 쿼리 가격 책정 공식에 사용되는 크기와 같지 않습니다. 외부에서 파티션을 나눈 테이블의 경우 파티션 프루닝 후에 이 한도가 적용됩니다.
소스 Cloud Storage 버킷의 최대 파일 수 파일 약 60,000,000개 외부 테이블은 최대 약 60,000,000개의 파일을 포함하는 Cloud Storage 버킷을 참조할 수 있습니다. 외부에서 파티션을 나눈 테이블의 경우 파티션 프루닝 전에 이 한도가 적용됩니다.

파티션을 나눈 테이블

BigQuery 파티션을 나눈 테이블에는 다음 한도가 적용됩니다.

파티션 한도는 대상 파티션에 추가하거나 덮어쓰는 모든 로드 작업, 복사 작업, 쿼리 작업의 합계에 적용됩니다.

단일 작업이 여러 파티션에 영향을 미칠 수 있습니다. 예를 들어 쿼리 작업 및 로드 작업은 여러 파티션에 쓰기를 수행할 수 있습니다.

BigQuery는 작업이 소비하는 한도를 결정할 때 작업의 영향을 받은 파티션 수를 사용합니다. 스트리밍 삽입은 이 한도에 영향을 미치지 않습니다.

파티션을 나눈 테이블의 한도를 초과하지 않는 전략에 대한 자세한 내용은 할당량 오류 문제 해결을 참조하세요.

한도 기본값 참고
파티션을 나눈 테이블당 파티션 수 파티션 10,000개 파티션을 나눈 테이블에는 각기 최대 10,000개의 파티션을 포함할 수 있습니다. 이 한도를 초과하면 파티션 나누기 외에 추가로 또는 파티션 나누기를 대신해서 클러스터링을 사용하는 것이 좋습니다.
단일 작업으로 수정되는 파티션 수 파티션 4,000개 각 쿼리 또는 로드 작업에서 최대 4,000개의 파티션에 영향을 미칠 수 있습니다. BigQuery에서 4,000개 이상의 파티션을 수정하려고 시도하는 쿼리 또는 로드 작업을 거부합니다.
수집 시간으로 파티션을 나눈 테이블당 하루 파티션 수정 횟수 수정 5,000회

프로젝트는 하루 최대 5,000개까지 파티션 수정을 수행할 수 있습니다. 이러한 수정 작업에는 데이터 추가, 데이터 업데이트, 수집 시간으로 파티션을 나눈 테이블 자르기가 포함됩니다.

DML 문은 일일 파티션 수정 횟수에 포함되지 않습니다.

열로 파티션을 나눈 테이블당 하루 파티션 수정 횟수 수정 30,000회

프로젝트에서 열로 파티션을 나눈 테이블 하나의 파티션을 하루 최대 30,000회 수정할 수 있습니다.

DML 문은 일일 파티션 수정 횟수에 포함되지 않습니다.

스트리밍 데이터는 일일 파티션 수정 횟수에 포함되지 않습니다.

파티션을 나눈 테이블당 최대 테이블 메타데이터 업데이트 작업 속도 10초당 50회 수정 프로젝트는 10초마다 파티션을 나눈 테이블당 최대 50회의 수정을 실행할 수 있습니다. 이 한도는 다음에서 수행되는 모든 파티션을 나눈 테이블 메타데이터 업데이트 작업에 적용됩니다. 이 한도에는 대상 테이블에 데이터를 추가하거나 덮어쓰거나 DML DELETE, INSERT, MERGE, TRUNCATE TABLE, 또는 UPDATE 문을 사용하여 테이블에 데이터를 쓰는 모든 로드 작업, 복사 작업 및 쿼리 작업의 합계도 포함됩니다.

이 한도를 초과하면 Exceeded rate limits: too many partitioned table update operations for this table과 같은 오류 메시지가 표시됩니다. 일시적인 오류이므로 지수 백오프로 다시 시도할 수 있습니다.

이 한도로 집계되는 작업을 식별하려면 로그를 검사하면 됩니다.

범위 파티션 나누기의 가능한 범위 수 범위 10,000개 범위로 파티션을 나눈 테이블에는 최대 10,000개의 가능한 범위가 포함될 수 있습니다. 이 한도는 테이블을 만들 때 파티션 사양에 적용됩니다. 테이블을 만든 후에는 한도가 실제 파티션 수에도 적용됩니다.

테이블 클론

BigQuery 테이블 클론에는 다음 한도가 적용됩니다.

한도 기본값 참고
체인의 최대 클론 및 스냅샷 수 테이블 클론 또는 스냅샷 3개 클론과 스냅샷의 조합은 깊이가 3으로 제한됩니다. 기본 테이블을 클론하거나 스냅샷을 만들 때 결과를 두 번 더 클론하거나 스냅샷을 만들 수 있습니다. 결과를 세 번 클론하거나 스냅샷을 만들려고 시도하면 오류가 발생합니다. 예를 들어 기본 테이블의 클론 A를 만들고, 클론 A의 스냅샷 B를 만들고, 스냅샷 B의 클론 C를 만들 수 있습니다. 세 번째 수준의 클론 또는 스냅샷을 추가로 만들려면 대신 복사 작업을 사용합니다.
기본 테이블의 최대 클론 및 스냅샷 수 테이블 클론 또는 스냅샷 1,000개 기본 테이블 하나에 결합된 기존 클론 및 스냅샷은 1,000개를 초과할 수 없습니다. 예를 들어 스냅샷 600개와 클론 400개가 있으면 한도에 도달합니다.

테이블 스냅샷

BigQuery 테이블 스냅샷에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 동시 테이블 스냅샷 작업 수 작업 100개 프로젝트에서 최대 100개의 동시 테이블 스냅샷 작업을 실행할 수 있습니다.
일일 최대 테이블 스냅샷 작업 수 작업 50,000개 프로젝트에서 하루에 최대 50,000개의 테이블 스냅샷 작업을 실행할 수 있습니다.
일일 테이블당 테이블 스냅샷 작업의 최대 개수 작업 50개 프로젝트에서 하루에 테이블당 최대 50개의 테이블 스냅샷 작업을 실행할 수 있습니다.
테이블 스냅샷별 10초당 최대 메타데이터 업데이트 수 업데이트 5회 프로젝트에서 10초마다 테이블 스냅샷의 메타데이터를 최대 5회 업데이트할 수 있습니다.
체인의 최대 클론 및 스냅샷 수 테이블 클론 또는 스냅샷 3개 클론과 스냅샷의 조합은 깊이가 3으로 제한됩니다. 기본 테이블을 클론하거나 스냅샷을 만들 때 결과를 두 번 더 클론하거나 스냅샷을 만들 수 있습니다. 결과를 세 번 클론하거나 스냅샷을 만들려고 시도하면 오류가 발생합니다. 예를 들어 기본 테이블의 클론 A를 만들고, 클론 A의 스냅샷 B를 만들고, 스냅샷 B의 클론 C를 만들 수 있습니다. 세 번째 수준의 클론 또는 스냅샷을 추가로 만들려면 대신 복사 작업을 사용합니다.
기본 테이블의 최대 클론 및 스냅샷 수 테이블 클론 또는 스냅샷 1,000개 기본 테이블 하나에 결합된 기존 클론 및 스냅샷은 1,000개를 초과할 수 없습니다. 예를 들어 스냅샷 600개와 클론 400개가 있으면 한도에 도달합니다.

구체화된 뷰에는 다음 할당량 및 한도가 적용됩니다.

논리적 뷰

BigQuery 표준 에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 중첩 뷰 수준 수 수준 16개 BigQuery에서는 중첩 뷰를 최대 16개 수준까지 지원합니다. 이 한도까지 뷰를 만들 수 있지만 쿼리는 15개 수준으로 제한됩니다. 이 한도를 초과하면 BigQuery가 INVALID_INPUT 오류를 반환합니다.
뷰 정의에 사용되는 GoogleSQL 쿼리의 최대 길이 256,000자(영문 기준) 뷰를 정의하는 단일 GoogleSQL 쿼리의 최대 길이는 256,000자(영문 기준)일 수 있습니다. 이 한도는 단일 쿼리에 적용되며 쿼리에서 참조하는 뷰의 길이는 포함되지 않습니다.
데이터 세트당 최대 승인된 뷰 수 데이터 세트를 참조하세요.

구체화된 뷰

BigQuery 구체화된 뷰에는 다음 한도가 적용됩니다.

한도 기본값 참고
기본 테이블 참조(같은 데이터 세트) 구체화된 뷰 20개 같은 데이터 세트의 구체화된 뷰 최대 20개에서 각 기본 테이블을 참조할 수 있습니다.
기본 테이블 참조(같은 프로젝트) 구체화된 뷰 100개 같은 프로젝트의 구체화된 뷰 최대 100개에서 각 기본 테이블을 참조할 수 있습니다.
기본 테이블 참조(전체 조직) 구체화된 뷰 500개 전체 조직의 구체화된 뷰 최대 500개에서 각 기본 테이블을 참조할 수 있습니다.
데이터 세트당 최대 승인된 뷰 수 데이터 세트를 참조하세요.

검색 색인

다음 한도가 BigQuery 검색 색인에 적용됩니다.

한도 기본값 참고
일일 리전 및 프로젝트별 CREATE INDEX DDL 문 수 작업 500개 프로젝트는 리전 내에서 매일 500개까지 CREATE INDEX DDL 작업을 실행할 수 있습니다.
테이블별 일일 검색 색인 DDL 문 수 작업 20개 프로젝트는 매일 테이블당 20개까지 CREATE INDEX 또는 DROP INDEX DDL 작업을 실행할 수 있습니다.
예약에서 실행되지 않는 검색 색인 생성에 허용되는 조직당 최대 테이블 데이터 총 크기 멀티 리전에서 100TB, 다른 모든 리전에서 20TB 조직의 색인이 있는 테이블의 전체 크기가 리전 한도(USEU 멀티 리전은 100TB, 다른 모든 리전은 20TB) 미만이면 테이블의 검색 색인을 만들 수 있습니다. 색인 관리 작업이 사용자 고유 예약에서 실행되는 경우 이 한도가 적용되지 않습니다.

벡터 색인

다음 한도가 BigQuery 벡터 색인에 적용됩니다:

한도 기본값 참고
기본 테이블 최대 행 수 행 5,000개 벡터 색인을 만들려면 테이블에 행이 최소 5,000개 이상 있어야 합니다.
기본 테이블 최대 행 수 IVF 색인 유형의 경우 행 10,000,000,000개

TREE_AH 색인 유형의 경우 200,000,000개
IVF 벡터 색인을 만들려면 테이블에 행이 최대 10,000,000,000개까지 포함될 수 있고 TREE_AH 벡터 색인을 만들려면 행이 200,000,000개까지 포함될 수 있습니다.
색인이 생성된 열의 최대 배열 크기 요소 1,600개 색인을 생성할 열은 배열에 요소가 최대 1,600개까지 포함될 수 있습니다.
벡터 색인 채우기를 위한 최소 테이블 크기 10MB 10MB보다 작은 테이블에 벡터 색인을 만들 경우 색인이 채워지지 않습니다. 마찬가지로 테이블 크기가 10MB 미만인 벡터 색인이 생성된 테이블에서 데이터를 삭제하면 벡터 색인이 일시적으로 사용 중지됩니다. 이 작업은 색인 관리 작업에 자체 예약을 사용하는지 여부에 관계없이 수행됩니다. 벡터 색인이 생성된 테이블의 크기가 다시 10MB를 초과하면 색인이 자동으로 채워집니다.
일일 리전 및 프로젝트별 CREATE VECTOR INDEX DDL 문 수 작업 500개 각 프로젝트에서 각 리전에 대해 매일 최대 500개까지 CREATE VECTOR INDEX 작업을 실행할 수 있습니다.
테이블별 일일 벡터 색인 DDL 문 수 작업 10개 매일 테이블당 최대 10개까지 CREATE VECTOR INDEX 또는 DROP VECTOR INDEX 작업을 실행할 수 있습니다.
예약에서 실행되지 않는 벡터 색인 생성에 허용되는 조직당 최대 테이블 데이터 총 크기 6TB 조직에서 색인이 포함된 테이블의 총 크기가 6TB 미만이면 테이블의 벡터 색인을 만들 수 있습니다. 색인 관리 작업이 사용자 고유 예약에서 실행되는 경우 이 한도가 적용되지 않습니다.

루틴

routines에 다음 할당량과 한도가 적용됩니다.

사용자 정의 함수

GoogleSQL 쿼리의 임시 및 영구 사용자 정의 함수(UDF)에는 다음 한도가 적용됩니다.

한도 기본값 참고
행당 최대 출력 5MB 단일 행을 처리할 때 자바스크립트 UDF가 출력할 수 있는 최대 데이터 양은 약 5MB입니다.
자바스크립트 UDF가 있는 최대 동시 legacy SQL 쿼리 수 쿼리 6개 프로젝트에는 자바스크립트의 UDF가 포함된 동시 실행 legacy SQL 쿼리가 최대 6개까지 있을 수 있습니다. 이 한도에는 대화형 및 일괄 쿼리가 모두 포함됩니다. 이 한도는 GoogleSQL 쿼리에는 적용되지 않습니다.
쿼리당 최대 자바스크립트 UDF 리소스 수 리소스 50개 쿼리 작업 하나에 인라인 코드 blob 또는 외부 파일과 같은 자바스크립트 UDF 리소스를 최대 50개까지 포함할 수 있습니다.
인라인 코드 blob 최대 크기 32KB UDF의 인라인 코드 blob은 최대 크기가 32KB입니다.
각 외부 코드 리소스의 최대 크기 1MB 각 자바스크립트 코드 리소스의 최대 크기는 1MB입니다.

영구 UDF에는 다음 한도가 적용됩니다.

한도 기본값 참고
UDF 이름의 최대 길이 256자(영문 기준) UDF 이름의 최대 길이는 256자(영문 기준)입니다.
최대 인수 개수 인수 256개 UDF 하나에 최대 256개의 인수가 포함될 수 있습니다.
인수 이름 최대 길이 128자(영문 기준) UDF 인수 이름의 길이는 최대 128자(영문 기준)입니다.
UDF 참조 체인의 최대 깊이 참조 16개 UDF 참조 체인 하나에 최대 16개의 참조 깊이가 사용될 수 있습니다.
STRUCT 유형 인수 또는 출력의 최대 깊이 수준 15개 STRUCT 유형 UDF 인수 또는 출력 하나에 최대 15개 수준의 깊이를 사용할 수 있습니다.
STRUCT 유형 인수 또는 출력의 최대 필드 수(UDF당) 필드 1,024개 UDF 하나에서 STRUCT 유형 인수 및 출력의 필드를 최대 1,024개 포함할 수 있습니다.
CREATE FUNCTION 문으로 된 최대 자바스크립트 라이브러리 수 라이브러리 50개 CREATE FUNCTION 문 하나에 최대 50개의 자바스크립트 라이브러리가 포함될 수 있습니다.
포함된 자바스크립트 라이브러리 경로의 최대 길이 5,000자(영문 기준) UDF에 포함된 자바스크립트 라이브러리 경로의 최대 길이는 5,000자(영문 기준)입니다.
UDF별 10초당 최대 업데이트 속도 업데이트 5회 프로젝트에서 10초마다 UDF를 최대 5회 업데이트할 수 있습니다.
데이터 세트당 최대 승인된 UDF 수 데이터 세트를 참조하세요.

원격 함수

BigQuery의 원격 함수에는 다음 한도가 적용됩니다.

한도 기본값 참고
원격 함수가 포함된 최대 동시 실행 쿼리 수 쿼리 10개 원격 함수를 사용하여 프로젝트당 쿼리를 최대 10개까지 동시에 실행할 수 있습니다.
최대 입력 크기 5MB 단일 행의 모든 입력 인수의 최대 총 크기는 5MB입니다.
HTTP 응답 크기 한도(Cloud Run Functions 1세대) 10MB Cloud Run Functions 1세대의 HTTP 응답 본문은 최대 10MB입니다. 이 값을 초과하면 쿼리가 실패합니다.
HTTP 응답 크기 한도(Cloud Run Functions 2세대 또는 Cloud Run) 15MB Cloud Run Functions 2세대 또는 Cloud Run의 HTTP 응답 본문은 최대 15MB입니다. 이 값을 초과하면 쿼리가 실패합니다.
최대 HTTP 호출 시간 제한(Cloud Run Functions 1세대) 9분 Cloud Run Functions 1세대에 개별 HTTP 호출의 고유한 제한 시간을 직접 설정할 수 있지만 최대 시간 제한은 9분입니다. Cloud Run Functions 1세대에 설정된 시간 제한을 초과하면 HTTP 호출과 쿼리가 실패할 수 있습니다.
HTTP 호출 시간 제한(Cloud Run Functions 2세대 또는 Cloud Run) 20분 Cloud Run Functions 2세대 또는 Cloud Run에 대한 개별 HTTP 호출의 시간 제한입니다. 이 값을 초과하면 HTTP 호출과 쿼리 실패할 수 있습니다.
최대 HTTP 호출 재시도 횟수 20 Cloud Run Functions 1세대, 2세대 또는 Cloud Run에 대한 개별 HTTP 호출의 최대 재시도 횟수입니다. 이 값을 초과하면 HTTP 호출과 쿼리 실패할 수 있습니다.

테이블 함수

BigQuery 테이블 함수에는 다음 한도가 적용됩니다.

한도 기본값 참고
테이블 함수 이름 최대 길이 256자(영문 기준) 테이블 함수 이름의 최대 길이는 256자(영문 기준)입니다.
인수 이름 최대 길이 128자(영문 기준) 테이블 함수 인수 이름의 최대 길이는 128자(영문 기준)입니다.
최대 인수 개수 인수 256개 테이블 함수 하나에 최대 256개의 인수가 포함될 수 있습니다.
테이블 함수 참조 체인의 최대 깊이 참조 16개 테이블 함수 참조 체인 하나에 최대 16개의 참조 깊이가 사용될 수 있습니다.
STRUCT 유형 인수 또는 출력의 최대 깊이 수준 15개 테이블 함수의 STRUCT 인수 하나에 최대 15개 수준의 깊이를 사용할 수 있습니다. 마찬가지로, 테이블 함수 출력의 STRUCT 레코드도 최대 15개 수준의 깊이를 사용할 수 있습니다.
테이블 함수당 STRUCT 유형의 인수 또는 반환 테이블 최대 필드 수 필드 1,024개 테이블 함수의 STRUCT 인수 하나에 최대 1,024개의 필드를 포함할 수 있습니다. 마찬가지로, 테이블 함수 출력의 STRUCT 레코드도 최대 1,024개의 필드를 사용할 수 있습니다.
반환 테이블의 최대 열 수 열 1,024개 테이블 함수로 반환된 테이블 하나에 최대 1,024개의 열을 포함할 수 있습니다.
반환 테이블 열 이름의 최대 길이 128자(영문 기준) 반환 테이블 열 이름의 최대 길이는 128자(영문 기준)입니다.
테이블 함수별 10초당 최대 업데이트 수 업데이트 5회 프로젝트에서 10초마다 테이블 함수를 최대 5회 업데이트할 수 있습니다.

Apache Spark용 저장 프로시져

Apache Spark용 BigQuery 저장 프로시져에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 동시 저장 프로시져 쿼리의 최대 개수 50 각 프로젝트에 대해 최대 50개까지 동시 저장 프로시져 쿼리를 실행할 수 있습니다.
사용 중인 CPU 최대 개수 12,000 각 프로젝트에 대해 12,000개까지 CPU를 사용할 수 있습니다. 이미 처리된 쿼리는 이 한도를 소비하지 않습니다.

다음 위치를 제외하고 각 프로젝트의 각 위치에서 최대 2,400개까지 CPU를 사용할 수 있습니다.

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

이러한 위치에서는 각 프로젝트의 각 위치에서 최대 500개까지 CPU를 사용할 수 있습니다.

멀티 리전 위치 및 동일한 지리적 지역에 있는 단일 리전 위치에서 동시 쿼리를 실행하는 경우 쿼리에서 동일한 동시 CPU 할당량을 사용할 수 있습니다.

사용 중인 표준 영구 디스크의 최대 총 크기 204.8TB

프로젝트별 위치당 최대 204.8TB 표준 영구 디스크를 사용할 수 있습니다. 이미 처리된 쿼리는 이 한도를 소비하지 않습니다.

멀티 리전 위치 및 동일한 지리적 지역에 있는 단일 리전 위치에서 동시 쿼리를 실행하는 경우 쿼리에서 동일한 표준 영구 디스크 할당량을 사용할 수 있습니다.

Notebooks

모든 Dataform 할당량 및 한도Colab Enterprise 할당량 및 한도BigQuery의 노트북에 적용됩니다. 다음 한도도 적용됩니다.

한도 기본값 참고
최대 노트북 크기 20MB

노트북의 크기는 해당 콘텐츠, 메타데이터, 인코딩 오버헤드의 합계입니다.

노트북 헤더를 확장하고 를 클릭한 후 노트북 정보를 클릭하면 노트북 콘텐츠의 크기를 확인할 수 있습니다.

Dataform에 대한 초당 최대 요청 수 100 노트북은 Dataform을 통해 생성되고 관리됩니다. 노트북을 만들거나 수정하는 작업은 이 할당량에 포함됩니다. 할당량은 저장된 쿼리와 공유됩니다. 예를 들어 1초 이내에 노트북 50회 변경 및 저장된 쿼리 50회 변경을 수행하는 경우 할당량에 도달합니다.

저장된 쿼리

모든 Dataform 할당량 및 한도저장된 쿼리에 적용됩니다. 다음 한도도 적용됩니다.

한도 기본값 참고
최대 저장된 쿼리 크기 10MB
Dataform에 대한 초당 최대 요청 수 100 저장된 쿼리는 Dataform을 통해 생성되고 관리됩니다. 저장된 쿼리를 만들거나 수정하는 작업은 이 할당량에 포함됩니다. 이 할당량은 노트북과 공유됩니다. 예를 들어 1초 이내에 노트북 50회 변경 및 저장된 쿼리 50회 변경을 수행하는 경우 할당량에 도달합니다.

DML

BigQuery 데이터 조작 언어(DML) 문에는 다음 한도가 적용됩니다.

한도 기본값 참고
일일 DML 문 수 무제한 프로젝트가 하루에 실행할 수 있는 DML 문 수는 제한되지 않습니다.

DML 문은 일일 테이블 수정 횟수 또는 파티션을 나눈 테이블의 일일 파티션을 나눈 테이블 수정 횟수에 포함되지 않습니다.

DML 문에서는 다음과 같은 제한사항에 주의해야 합니다.
일일 테이블당 동시 실행 INSERT DML 문 문 1,500개 INSERT 문 1,500개는 제출 직후에 실행됩니다. 이 한도에 도달하면 테이블에 쓰는 INSERT 문의 동시 실행이 10개로 제한됩니다. 추가 INSERT 문은 PENDING 큐에 추가됩니다. 특정 시간에 테이블에 대해 INSERT 문을 최대 100개까지 큐에 추가할 수 있습니다. INSERT 문이 완료되면 다음 INSERT 문이 큐에서 삭제되고 실행됩니다.

DML INSERT 문을 더 자주 실행해야 하는 경우 Storage Write API를 사용하여 테이블에 데이터를 스트리밍하는 것이 좋습니다.
테이블당 동시 변형 DML 문 수 문 2개 BigQuery는 각 테이블에 대해 최대 2개의 동시 변형 DML 문(UPDATE, DELETE, MERGE)을 실행합니다. 테이블의 추가 변형 DML 문은 큐에 추가됩니다.
큐에 추가된 테이블당 변형 DML 문 수 문 20개 테이블에는 실행 대기 중인 큐에 최대 20개의 변형 DML 문이 있을 수 있습니다. 테이블에 추가 변형 DML 문을 제출하면 해당 문이 실패합니다.
DML 문의 최대 큐 대기 시간 6시간 대화형 우선순위 DML 문은 큐에서 최대 6시간 동안 대기할 수 있습니다. 6시간 후에 문이 실행되지 않으면 문이 실패합니다.
각 테이블에 대한 DML 문의 최대 속도 10초마다 25개의 문 프로젝트는 각 테이블에 대해 10초마다 최대 25개까지 DML 문을 실행할 수 있습니다. INSERT 및 변형 DML 문 모두 이 한도에 영향을 미칩니다.

DML 문 변형에 대한 자세한 내용은 INSERT DML 동시 실행UPDATE, DELETE, MERGE DML 동시 실행을 참조하세요.

멀티 문 쿼리

BigQuery의 멀티 문 쿼리에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 동시 멀티 문 쿼리 수 멀티 문 쿼리 1,000개 프로젝트는 최대 1,000개의 동시 멀티 문 쿼리를 실행할 수 있습니다.
누적 시간 제한 24시간 멀티 문 쿼리의 누적 시간 제한은 24시간입니다.
문 시간 제한 6시간 멀티 문 쿼리 내 개별 문의 시간 제한은 6시간입니다.

쿼리의 재귀적 CTE

BigQuery의 재귀적 공통 테이블 표현식(CTE)에는 다음 한도가 적용됩니다.

한도 기본값 참고
반복 한도 반복 500회 재귀적 CTE는 반복을 이 횟수만큼 실행할 수 있습니다. 이 한도를 초과하면 오류가 발생합니다. 반복 한도를 해결하려면 반복 한도 오류 문제 해결을 참조하세요.

행 수준 보안

BigQuery 행 수준 액세스 정책에는 다음 한도가 적용됩니다.

한도 기본값 참고
테이블당 최대 행 액세스 정책 수 정책 400개 테이블 하나에 최대 400개의 행 액세스 정책이 있을 수 있습니다.
쿼리당 최대 행 액세스 정책 수 정책 6,000개 쿼리 하나에 최대 6,000개의 행 액세스 정책이 있을 수 있습니다.
정책별 10초당 최대 CREATE/DROP DDL 문 수 문 5개 프로젝트에서 10초마다 행 액세스 정책 리소스당 최대 5개의 CREATE 또는 DROP 문을 만들 수 있습니다.
테이블별 10초당 DROP ALL ROW ACCESS POLICIES 문 수 문 5개 프로젝트에서 10초마다 테이블당 최대 5개의 DROP ALL ROW ACCESS POLICIES 문을 만들 수 있습니다.

데이터 정책

열 수준 동적 데이터 마스킹에는 다음 한도가 적용됩니다.

한도 기본값 참고
정책 태그당 최대 데이터 정책 수 정책 태그당 8개 정책 정책 태그당 최대 8개 데이터 정책. 이러한 정책 중 하나를 열 수준 액세스 제어에 사용할 수 있습니다. 중복 마스킹 표현식은 지원되지 않습니다.

BigQuery ML

BigQuery ML에는 다음 한도가 적용됩니다.

쿼리 작업

BigQuery ML 문 및 함수를 사용하는 GoogleSQL 쿼리 작업에는 모든 쿼리 작업 할당량 및 한도가 적용됩니다.

CREATE MODEL

CREATE MODEL 작업에는 다음 한도가 적용됩니다.

한도 기본값 참고
각 프로젝트별 48시간 당 CREATE MODEL 문 쿼리 20,000개 문 쿼리 일부 모델은 자체 리소스 및 할당량 관리를 포함한 Vertex AI 서비스를 활용하여 학습됩니다.
실행 시간 한도 24시간 또는 72시간 CREATE MODEL 작업 제한 시간은 기본적으로 24시간으로 설정되며, 72시간에 시간 초과되는 시계열, AutoML, 초매개변수는 예외입니다.

Vertex AI 및 Cloud AI 서비스 함수

Vertex AI 대규모 언어 모델(LLM) 및 Cloud AI 서비스를 사용하는 함수에는 다음 한도가 적용됩니다.

기능 분당 요청 수 작업당 행 수 동시에 실행되는 작업 수
gemini-1.5-pro 모델을 통해 원격 모델을 사용하는 경우 ML.GENERATE_TEXT 60 21,600 5
gemini-1.5-flash 모델을 통해 원격 모델을 사용하는 경우 ML.GENERATE_TEXT 200 72,000 5
us-central1 리전에서 gemini-1.0-pro-vision 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 100 20,000 1
us-central1 이외의 리전에서 gemini-1.0-pro-vision 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 10 3,600개 1
us-central1 리전에서 gemini-1.0-pro 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 300 108,000 5
us-central1 이외의 리전에서 gemini-1.0-pro 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 10 3,600개 5
Anthropic Claude 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 30 10,800 5
text-bison 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 1,600 576,000 5
text-bison-32 모델을 통해 원격 모델을 사용하는 경우의 ML.GENERATE_TEXT 300 108,000 5
지원되는 유럽 단일 리전에서 Vertex AI multimodalembedding 모델을 통해 원격 모델에 사용되는 경우의 ML.GENERATE_EMBEDDING 120 14,000 5
지원되는 유럽 단일 리전 이외의 리전에서 Vertex AI multimodalembedding 모델을 통해 원격 모델에 사용되는 경우의 ML.GENERATE_EMBEDDING 600 25,000 5
us-central1 리전에서 Vertex AI text-embeddingtext-multilingual-embedding 모델을 통해 원격 모델에 사용되는 경우의 ML.GENERATE_EMBEDDING 1,500 2,700,000 1
us-central1 이외의 리전에서 Vertex AI text-embeddingtext-multilingual-embedding 모델을 통해 원격 모델에 사용되는 경우의 ML.GENERATE_EMBEDDING 100 180,000 1
평균 1페이지 길이의 문서를 사용하는 ML.PROCESS_DOCUMENT 600 150,000 5
평균 10페이지 길이의 문서를 사용하는 ML.PROCESS_DOCUMENT 600 100,000 5
평균 50페이지 길이의 문서를 사용하는 ML.PROCESS_DOCUMENT 600 15,000 5
ML.TRANSCRIBE 200 10,000 5
ML.ANNOTATE_IMAGE 1,800 648,000 5
ML.TRANSLATE 6,000 2,160,000 5
ML.UNDERSTAND_TEXT 600 21,600 5

Vertex AI LLM 및 Cloud AI 서비스 API의 할당량에 대한 자세한 내용은 다음 문서를 참조하세요.

작업당 행 할당량은 시스템이 6시간 이내에 처리할 수 있는 이론적인 최대 행 수를 나타냅니다. 처리되는 실제 행 수는 입력 크기, 네트워크 상태 등 다른 여러 요인에 따라 달라집니다. 예를 들어 ML.TRANSCRIBE는 긴 오디오보다 짧은 오디오를 더 많이 처리할 수 있습니다.

BigQuery ML 함수에 더 많은 할당량을 요청하려면 먼저 연결된 Vertex AI LLM 또는 Cloud AI 서비스의 할당량을 조정한 후 bqml-feedback@google.com으로 조정된 LLM 또는 Cloud AI 서비스 할당량에 대한 정보를 포함한 이메일을 보내세요. 이러한 서비스에 추가 할당량을 요청하는 방법은 할당량 상향 요청을 참조하세요.

할당량 정의

다음 목록은 Vertex AI 및 Cloud AI 서비스 함수에 적용되는 할당량을 설명합니다.

  • Vertex AI 파운데이션 모델을 호출하는 함수는 분당 쿼리 수(QPM)인 Vertex AI 할당량 하나를 사용합니다. 이 컨텍스트에서 쿼리는 함수에서 Vertex AI 모델의 API로의 요청 호출입니다. QPM 할당량은 기본 모델과 해당 모델의 모든 버전, 식별자, 조정된 버전에 적용됩니다. Vertex AI 파운데이션 모델 할당량에 대한 자세한 내용은 리전 및 모델별 할당량을 참조하세요.
  • Cloud AI 서비스를 호출하는 함수는 대상 서비스의 요청 할당량을 사용합니다. 자세한 내용은 지정된 Cloud AI 서비스 할당량 참조를 확인하세요.
  • BigQuery ML은 다음 3가지 할당량을 사용합니다.

    • 분당 요청 수. 이 할당량은 함수가 Vertex AI 모델 또는 Cloud AI 서비스 API에 대해 수행할 수 있는 분당 요청 호출 수에 대한 한도입니다. 이 한도는 각 프로젝트에 적용됩니다.

      Vertex AI 파운데이션 모델을 호출하는 함수에서 분당 요청 호출 수는 Vertex AI 모델 엔드포인트, 버전, 리전에 따라 달라집니다. 이 할당량은 Vertex AI에 사용되는 QPM 할당량과 개념적으로 동일하지만 해당 모델의 QPM 할당량보다 값이 작을 수 있습니다.

    • 작업당 행 수. 이 할당량은 각 쿼리 작업에서 허용되는 행 수에 대한 한도입니다.

    • 동시에 실행되는 작업 수. 이 할당량은 지정된 함수에 대해 동시에 실행할 수 있는 SQL 쿼리 수에 대한 프로젝트별 한도입니다.

다음 예시는 일반적인 상황에서 할당량 제한사항을 해석하는 방법을 보여줍니다.

  • Vertex AI에서 QPM 할당량이 1,000개이므로 행 수가 100,000개인 쿼리가 약 100분 정도 걸려야 합니다. 작업 실행 시간이 더 오래 걸리는 이유가 무엇인가요?

    동일한 입력 데이터라도 작업 런타임이 다를 수 있습니다. Vertex AI에서 할당량 드레이닝을 방지하기 위해 리모트 프로시져 콜(RPC)의 우선순위는 다릅니다. 할당량이 충분하지 않으면 우선순위가 낮은 RPC의 경우 작업이 보류되거나 처리 시간이 너무 오래 걸릴 경우 실패할 수도 있습니다.

  • 작업 할당량별 행 해석은 어떻게 해야 하나요?

    BigQuery에서 쿼리는 최대 6시간 동안 실행될 수 있습니다. 지원되는 최대 행은 BigQuery가 6시간 내에 쿼리 처리를 완료할 수 있도록 이 타임라인과 Vertex AI QPM 할당량에 의해 결정됩니다. 일반적으로 쿼리가 전체 할당량을 사용할 수 없으므로 QPM 할당량에 360을 곱한 것보다 낮은 수입니다.

  • 10,000,000개 행과 같이 작업 할당량당 행 수보다 행 수가 많은 테이블에서 배치 추론 작업을 실행하면 어떻게 되나요?

    BigQuery는 작업당 행 할당량에 지정된 행 수만 처리합니다. 테이블의 전체 10,000,000개 행 대신 해당 행 수의 성공한 API 호출에 대해서만 요금이 청구됩니다. 나머지 행에서 BigQuery는 결과의 status 열에 반환된 A retryable error occurred: the maximum size quota per query has reached 오류로 요청에 응답합니다. 이 SQL 스크립트 집합 또는 이 Dataform 패키지를 사용하여 모든 행이 성공적으로 처리될 때까지 추론 셀을 반복 처리할 수 있습니다.

  • 작업 할당량당 행 수보다 처리할 행이 많습니다. 여러 쿼리로 행을 분할하고 이를 동시에 실행하는 것이 도움이 되나요?

    아니요, 이러한 쿼리는 분당 BigQuery ML 요청 할당량과 Vertex AI QPM 할당량을 동일하게 소비합니다. 작업 할당량별 행 수 및 동시에 실행되는 작업 수 할당량 내에 있는 쿼리가 여러 개 있으면 누적 처리로 인해 분당 할당량당 요청이 모두 소진됩니다.

BI Engine

BigQuery BI Engine에는 다음 한도가 적용됩니다.

한도 기본값 참고
위치당 프로젝트당 최대 예약 크기(SQL 인터페이스) 250GiB BigQuery와 함께 BI Engine을 사용할 때 적용됩니다. 기본 통합을 사용하지 않는 Looker Studio를 제외한 모든 경우에 적용됩니다.

프로젝트의 최대 예약 용량 상향 조정을 요청할 수 있습니다. 대부분의 리전에서 예약을 상향 조정할 수 있으며 처리하는 데 3일에서 일주일이 걸릴 수 있습니다.
위치당 프로젝트당 최대 예약 크기(Looker Studio) 100GB 기본 통합 없이 Looker Studio와 함께 BI Engine을 사용할 때 적용됩니다. BI Engine은 전체 테이블 대신 쿼리에서 사용하는 열만 인메모리로 로드하므로 이 한도는 쿼리하는 테이블의 크기에 영향을 미치지 않습니다.
테이블당 최대 데이터 모델 크기(Looker Studio) 10GB 기본 통합 없이 Looker Studio와 함께 BI Engine을 사용할 때 적용됩니다. 위치당 프로젝트당 100GB의 예약이 있는 경우 BI Engine은 테이블당 예약을 10GB로 제한합니다. 이용 가능한 나머지 예약은 프로젝트의 나머지 테이블에 사용됩니다.
테이블당 최대 파티션 수(Looker Studio) 500 파티션 기본 통합 없이 Looker Studio와 함께 BI Engine을 사용할 때 적용됩니다. Looker Studio용 BI Engine은 테이블당 최대 500개의 파티션을 지원합니다.
쿼리당 최대 행 수(Looker Studio) 1억 5천만 기본 통합 없이 Looker Studio와 함께 BI Engine을 사용할 때 적용됩니다. Looker Studio용 BI Engine은 쿼리 복잡성에 따라 쿼리 데이터 1억 5천만 행을 지원합니다.

Analytics Hub

Analytics Hub에는 다음 한도가 적용됩니다.

한도 기본값 참고
프로젝트당 최대 데이터 교환 수 교환 500개 프로젝트당 최대 500개의 데이터 교환을 만들 수 있습니다.
데이터 교환당 최대 목록 수 목록 1000개 데이터 교환당 최대 1,000개의 목록을 만들 수 있습니다.
공유 데이터 세트당 최대 연결된 데이터 세트 수 연결된 데이터 세트 1000개 모든 Analytics Hub 구독자는 공유 데이터 세트당 최대 1,000개의 연결된 데이터 세트를 포함할 수 있습니다.

API 할당량 및 한도

BigQuery API 요청에 이러한 할당량과 한도가 적용됩니다.

BigQuery API

BigQuery API(코어) 요청에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
일일 요청 수 무제한 프로젝트에서 하루에 무제한으로 BigQuery API 요청을 수행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
분당 최대 tabledata.list바이트 멀티 리전에서 7.5GB, 다른 모든 리전에서 3.7GB 프로젝트에서 useu 멀티 리전의 tabledata.list를 통해 테이블 행 데이터를 분당 최대 7.5GB까지 반환하고, 다른 모든 리전에서 분당 3.7GB의 테이블 행 데이터를 반환할 수 있습니다. 이 할당량은 읽는 테이블이 포함된 프로젝트에 적용됩니다. jobs.getQueryResults를 포함하고 jobs.queryjobs.insert에서 결과를 가져온 다른 API도 이 할당량을 사용할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기

BigQuery Storage Read APItabledata.list보다 훨씬 높은 처리량을 유지할 수 있습니다. 이 할당량에서 허용되는 것보다 더 많은 처리량이 필요한 경우 BigQuery Storage Read API를 사용하는 것이 좋습니다.

BigQuery API(코어) 요청에는 다음 한도가 적용됩니다.

한도 기본값 참고
메서드별 사용자별 초당 최대 API 요청 수 요청 100개 사용자는 API 메서드에 초당 최대 100개의 API 요청을 실행할 수 있습니다. 사용자가 메서드에 100개를 초과하는 초당 요청을 할 경우 제한이 있을 수 있으나 스트리밍 삽입에는 이 한도가 적용되지 않습니다.
사용자당 최대 동시 API 요청 수 요청 300개 사용자가 300개를 초과하는 동시 요청을 할 경우 제한이 있을 수 있으나 스트리밍 삽입에는 이 한도가 적용되지 않습니다.
최대 요청 헤더 크기 16KiB BigQuery API 요청 크기는 요청 URL과 모든 헤더를 포함하여 최대 16KiB까지 가능합니다. 이 한도는 요청 본문(예: POST 요청)에는 적용되지 않습니다.
초당 최대 jobs.get 요청 수 요청 1,000개 프로젝트에서 jobs.get 요청을 초당 최대 1,000개까지 실행할 수 있습니다.
최대 jobs.query 응답 크기 20MB 기본적으로 결과 페이지당 jobs.query에서 반환되는 최대 데이터 행 수에는 제한이 없습니다. 그러나 최대 응답 크기는 20MB로 제한됩니다. maxResults 매개변수를 사용하여 반환할 행 수를 변경할 수 있습니다.
최대 jobs.getQueryResults 행 크기 20MB 이 한도는 행 데이터의 내부 표현을 기준으로 하므로 최대 행 크기는 근사치입니다. 한도는 트랜스코딩 중에 적용됩니다.
초당 최대 projects.list 요청 수 요청 2개 프로젝트에서 projects.list 요청을 초당 최대 2개까지 실행할 수 있습니다.
초당 최대 tabledata.list 요청 수 요청 1,000개 프로젝트에서 tabledata.list 요청을 초당 최대 1,000개까지 실행할 수 있습니다.
tabledata.list 응답당 최대 행 수 행 100,000개 tabledata.list 호출은 최대 100,000개의 테이블 행을 반환할 수 있습니다. 자세한 내용은 API를 사용하여 결과 페이지 나누기을 참조하세요.
최대 tabledata.list 행 크기 100MB 이 한도는 행 데이터의 내부 표현을 기준으로 하므로 최대 행 크기는 근사치입니다. 한도는 트랜스코딩 중에 적용됩니다.
초당 최대 tables.insert 요청 수 요청 10개 프로젝트에서 초당 최대 10개의 tables.insert 요청을 실행할 수 있습니다. tables.insert 메서드는 데이터 세트에 빈 테이블을 새로 만듭니다. 이 한도에는 CREATE TABLE과 같이 테이블을 만드는 SQL 문과 대상 테이블에 결과를 쓰는 쿼리가 포함됩니다.

BigQuery Connection API

BigQuery Connection API 요청에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
분당 읽기 요청 분당 요청 1,000개 프로젝트에서 연결 데이터를 읽는 BigQuery Connection API 메서드에 분당 최대 1,000개의 요청을 보낼 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
분당 쓰기 요청 요청 100개/분 프로젝트에서 연결을 만들거나 업데이트하는 BigQuery Connection API 메서드에 분당 최대 100개의 요청을 보낼 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
분당 생성되는 BigQuery Omni 연결 분당 생성되는 연결 10개 프로젝트에서 AWS 및 Azure 모두에서 BigQuery Omni 연결을 분당 최대 10개까지 만들 수 있습니다.
BigQuery Omni 연결 사용 분당 연결 사용 100회 프로젝트에서 BigQuery Omni 연결을 분당 최대 100회까지 사용할 수 있습니다. 이는 연결을 사용하여 AWS 계정에 액세스하는 작업에 적용됩니다(예: 테이블 쿼리).

BigQuery Migration API

BigQuery Migration API(미리보기)에는 다음 한도가 적용됩니다.

한도 기본값 참고
일괄 SQL 변환을 위한 개별 파일 크기 10MB 각 개별 소스와 메타데이터 파일은 최대 10MB입니다. dwh-migration-dumper 명령줄 추출 도구에서 생성된 메타데이터 zip 파일에는 이 한도가 적용되지 않습니다.
일괄 SQL 변환의 소스 파일 총 크기 1GB Cloud Storage에 업로드되는 모든 입력 파일의 총 크기는 최대 1GB입니다. 여기에는 모든 소스 파일과 모든 메타데이터 파일(포함하도록 선택한 경우)이 포함됩니다.
대화형 SQL 변환의 입력 문자열 크기 1MB 대화형 SQL 변환에 입력하는 문자열은 1MB 이하여야 합니다. Translation API를 사용하여 대화형 번역을 실행하는 경우 이 한도가 모든 문자열 입력의 총 크기에 적용됩니다.
대화형 SQL 변환을 위한 최대 구성 파일 크기 50MB Cloud Storage의 개별 메타데이터 파일(압축) 및 YAML 구성 파일은 50MB를 초과할 수 없습니다. 파일 크기가 50MB를 초과하면 대화형 변환기는 변환 중에 해당 구성 파일을 건너뛰고 오류 메시지를 생성합니다. 메타데이터 파일 크기를 줄이는 한 가지 방법은 메타데이터를 생성할 때 —database 또는 –schema 플래그를 사용하여 데이터베이스를 필터링하는 것입니다.

다음 할당량이 BigQuery Migration API에 적용됩니다. 대부분의 경우 다음 기본값이 적용됩니다. 프로젝트의 기본값은 다를 수 있습니다.

할당량 기본값 참고

분당 EDWMigration 서비스 목록 요청 수

사용자별 분당 EDWMigration 서비스 목록 요청 수

12,000개 요청

2,500개 요청

프로젝트에서 분당 최대 12,000개의 Migration API List 요청을 실행할 수 있습니다.

각 사용자는 분당 최대 2,500개의 Migration API List 요청을 실행할 수 있습니다.

Google Cloud 콘솔에서 할당량 보기

분당 EDWMigration 서비스 가져오기 요청 수

사용자별 분당 EDWMigration 서비스 가져오기 요청 수

25,000개 요청

2,500개 요청

프로젝트에서 분당 최대 25,000개의 Migration API Get 요청을 실행할 수 있습니다.

각 사용자는 분당 최대 2,500개의 Migration API Get 요청을 실행할 수 있습니다

Google Cloud 콘솔에서 할당량 보기

분당 EDWMigration Service 기타 요청 수

사용자별 분당 EDWMigration Service 기타 요청

25개 요청

5개 요청

프로젝트에서 분당 최대 25개의 Migration API 요청을 실행할 수 있습니다.

각 사용자는 분당 최대 5개의 Migration API 요청을 실행할 수 있습니다.

Google Cloud 콘솔에서 할당량 보기

분당 대화형 SQL 변환 요청 수

사용자별 분당 대화형 SQL 변환 요청 수

200개 요청

50개 요청

프로젝트에서 분당 최대 200개의 SQL 변환 서비스 요청을 실행할 수 있습니다.

각 사용자는 분당 최대 50개의 SQL 변환 서비스 요청을 실행할 수 있습니다.

Google Cloud 콘솔에서 할당량 보기

BigQuery Reservation API

BigQuery Reservation API 요청에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
리전별 분당 요청 요청 100개 프로젝트에서 BigQuery Reservation API 메서드에 리전별로 분당 최대 100개의 호출을 수행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
리전별 분당 SearchAllAssignments 호출 수 요청 100개 프로젝트에서 SearchAllAssignments 메서드에 리전별로 분당 최대 100개의 호출을 수행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
각 사용자의 리전별 분당 SearchAllAssignments 요청 수 요청 10개 각 사용자는 리전별로 분당 최대 10개의 SearchAllAssignments 메서드를 호출할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
(Google Cloud 콘솔 검색결과에서 사용자당을 검색하세요.)

BigQuery Data Policy API

Data Policy API(미리보기)에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 dataPolicies.list 호출 수 프로젝트별 분당 요청 400개

조직별 분당 요청 600개
최대 dataPolicies.testIamPermissions 호출 수 프로젝트별 분당 요청 400개

조직별 분당 요청 600개
최대 읽기 요청 수 프로젝트별 분당 요청 1,200개

조직별 분당 요청 1,800개
여기에는 dataPolicies.getdataPolicies.getIamPolicy에 대한 호출이 포함됩니다.
최대 쓰기 요청 수 프로젝트별 분당 요청 600개

조직별 분당 요청 900개

여기에는 다음에 대한 호출이 포함됩니다.

IAM API

BigQuery에서 Identity and Access Management 기능을 사용해 IAM 정책을 검색하고 설정하며 IAM 권한을 테스트할 때 다음 할당량이 적용됩니다. 데이터 제어 언어(DCL) 문SetIAMPolicy 할당량에 따라 계산됩니다.

할당량 기본값 참고
사용자별 분당 IamPolicy 요청 수 사용자별 분당 1,500개 요청 각 사용자는 프로젝트별로 분당 최대 1,500개의 요청을 보낼 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
프로젝트별 분당 IamPolicy 요청 수 프로젝트별 분당 요청 3,000개 프로젝트에서 분당 최대 3,000개의 요청을 보낼 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
단일 리전 SetIAMPolicy 프로젝트별 분당 요청 수 프로젝트별 분당 요청 1,000개 단일 리전 프로젝트는 요청을 분당 최대 1,000개까지 실행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
멀티 리전 프로젝트별 분당 SetIAMPolicy 요청 수 프로젝트별 분당 요청 2,000개 멀티 리전 프로젝트는 요청을 분당 최대 2,000개까지 실행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
옴니 리전 프로젝트별 분당 SetIAMPolicy 요청 수 프로젝트별 분당 요청 200개 옴니 리전 프로젝트는 요청을 분당 최대 200개까지 실행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기

Storage Read API

BigQuery Storage Read API 요청에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
사용자별 분당 읽기 데이터 영역 요청 수 25,000개 요청 각 사용자는 프로젝트별로 분당 최대 25,000개의 ReadRows 호출을 수행할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기
사용자별 분당 읽기 컨트롤 플레인 요청 수 요청 5,000개 각 사용자는 프로젝트별로 분당 최대 5,000개의 Storage Read API 메타데이터 작업 호출을 수행할 수 있습니다. 메타데이터 호출에는 CreateReadSessionSplitReadStream 메서드가 포함됩니다.
Google Cloud 콘솔에서 할당량 보기

BigQuery Storage Read API 요청에는 다음 한도가 적용됩니다.

한도 기본값 참고
최대 행/필터 길이 1MB Storage Read API CreateReadSession 호출을 사용하는 경우 행 또는 필터당 최대 길이가 1MB로 제한됩니다.
최대 직렬화된 데이터 크기 128MB Storage Read API ReadRows 호출을 사용할 때 개별 ReadRowsResponse 메시지의 데이터 직렬화 표현은 128MB를 넘지 않아야 합니다.
최대 동시 연결 수 멀티 리전에서 2,000개, 리전에서 400개 useu 멀티 리전에서 프로젝트당 최대 2,000개의 동시 ReadRows 연결을 열 수 있으며, 다른 리전에서 400개의 동시 ReadRows 연결을 열 수 있습니다. 경우에 따라 이 한도보다 적은 수의 동시 연결로 제한될 수 있습니다.
스트림당 최대 메모리 사용량 1.5GB 이 한도는 행 데이터의 내부 표현을 기준으로 하므로 최대 스트림별 메모리가 근사치입니다. 단일 행에 대해 1.5GB 넘는 메모리를 사용하는 스트림은 실패합니다. 자세한 내용은 리소스 초과 문제 해결을 참조하세요.

Storage Write API

Storage Write API 요청에는 다음 할당량이 적용됩니다. 다음 할당량을 폴더 수준에서 적용할 수 있습니다. 그런 다음 이 할당량이 집계되어 모든 하위 프로젝트에 공유됩니다. 이 구성을 사용 설정하려면 Cloud Customer Care에 문의하세요.

할당량 한도 상향을 요청할 계획이라면 신속하게 처리할 수 있도록 요청에 할당량 오류 메시지를 포함하세요.

할당량 기본값 참고
동시 연결 수 리전당 1,000개, 멀티 리전에서 10,000개

동시 연결 할당량은 BigQuery 데이터 세트 리소스를 포함하는 프로젝트가 아니라 Storage Write API 요청을 시작하는 클라이언트 프로젝트를 기반으로 합니다. 시작 프로젝트는 API 키 또는 서비스 계정과 연결된 프로젝트입니다.

프로젝트는 한 리전에서 1,000개의 동시 연결 또는 USEU 멀티 리전에서 10,000개의 동시 연결로 작동할 수 있습니다.

Java 또는 Go에서 기본 스트림을 사용할 때에는 필요한 전체 연결 수를 줄이기 위해 Storage Write API 다중화를 사용하여 공유 연결이 있는 여러 대상 테이블에 쓰는 것이 좋습니다. 1회 이상 실행되는 시맨틱스가 있는 Beam 커넥터를 사용하는 경우 UseStorageApiConnectionPoolTRUE로 설정하여 다중화를 사용 설정할 수 있습니다.

Google Cloud 콘솔에서 할당량 보기

Cloud Monitoring에서 프로젝트의 할당량 사용량 및 한도 측정항목을 볼 수 있습니다. 리전을 기준으로 동시 연결 한도 이름을 선택합니다. 옵션은 us, eu, 기타 리전에 대해 각각 ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU, ConcurrentWriteConnectionsPerProjectRegion입니다.

할당량 사용량 및 한도를 모니터링하려면 알림을 설정하는 것이 좋습니다. 또한 트래픽 패턴에서 급증 또는 정기적인 자연 증가가 나타나는 경우 예기치 않은 수요를 감당할 수 있도록 할당량을 25~50% 초과하여 프로비저닝하는 것이 좋습니다.

처리량 멀티 리전에서 초당 3GB의 처리량, 리전에서 초당 300MB 처리량 useu 멀티 리전에서 최대 3GBps까지, 프로젝트당 다른 리전에서 최대 300MBps까지 스트리밍할 수 있습니다.
Google Cloud 콘솔에서 할당량 보기

Cloud Monitoring에서 프로젝트의 할당량 사용량 및 한도 측정항목을 볼 수 있습니다. 리전을 기준으로 처리량 한도 이름을 선택합니다. 옵션은 us, eu, 기타 리전에 대해 각각 AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU, AppendBytesThroughputPerProjectRegion입니다. 쓰기 처리량 할당량은 클라이언트 프로젝트가 아니라 대상 데이터 세트가 있는 프로젝트를 기반으로 측정됩니다.

할당량 사용량 및 한도를 모니터링하려면 알림을 설정하는 것이 좋습니다. 또한 트래픽 패턴에서 급증 또는 정기적인 자연 증가가 나타나는 경우 예기치 않은 수요를 감당할 수 있도록 할당량을 25~50% 초과하여 프로비저닝하는 것이 좋습니다.


CreateWriteStream 요청 리전별 프로젝트당 1시간에 스트림 10,000개 리전별 프로젝트당 1시간에 최대 10,000회까지 CreateWriteStream을 호출할 수 있습니다. 정확히 하나의 시맨틱스가 필요하지 않은 경우 기본 스트림을 사용하는 것이 좋습니다. 이 할당량은 시간 단위이지만 Google Cloud 콘솔에 표시되는 측정항목은 분 단위입니다.
대기 중인 스트림 바이트 멀티 리전에 10TB, 리전에 1TB 트리거하는 모든 커밋의 경우 useu 멀티 리전에서 최대 10TB까지, 다른 리전에서 최대 1TB까지 커밋할 수 있습니다. 이 할당량에 대한 할당량 보고가 없습니다.

Storage Write API 요청에는 다음 한도가 적용됩니다.

한도 기본값 참고
일괄 커밋 테이블당 스트림 10,000개 BatchCommitWriteStream 호출마다 스트림을 최대 10,000개까지 커밋할 수 있습니다.
AppendRows 요청 크기 10MB 최대 요청 크기는 10MB입니다.

스트리밍 삽입

다음 할당량과 한도는 기존 스트리밍 API를 사용하여 데이터를 BigQuery로 스트리밍할 때 적용됩니다. 이러한 한도를 초과하지 않는 전략에 대한 자세한 내용은 할당량 오류 문제 해결을 참조하세요. 이 할당량을 초과하면 quotaExceeded 오류가 발생합니다.

한도 기본값 참고
useu 멀티 리전의 프로젝트별 초당 최대 행 수 1GB/초

프로젝트는 초당 1GB까지 스트리밍할 수 있습니다. 이 할당량은 특정 멀티 리전 내에서 누적됩니다. 즉, 멀티 리전에 포함된 특정 프로젝트의 모든 테이블에 스트리밍되는 초당 바이트의 합계가 1GB로 제한됩니다.

이 한도를 초과하면 quotaExceeded 오류가 발생합니다.

필요한 경우 Cloud Customer Care에 문의하여 할당량 증가를 요청할 수 있습니다. 할당량을 늘려야 하는 경우 최소 2주 전에 상향 조정을 요청하세요. 특히 할당량을 크게 늘려야 하는 경우 할당량 상향 조정을 완료하는 데 시간이 걸립니다.

다른 모든 위치의 프로젝트별 초당 최대 바이트 수 초당 300MB

프로젝트는 useu 멀티 리전을 제외한 모든 위치에서 초당 최대 300MB를 스트리밍할 수 있습니다. 이 할당량은 특정 멀티 리전 내에서 누적됩니다. 즉, 한 리전 내 특정 프로젝트의 모든 테이블에 스트리밍되는 초당 바이트의 합계가 300MB로 제한됩니다.

이 한도를 초과하면 quotaExceeded 오류가 발생합니다.

필요한 경우 Cloud Customer Care에 문의하여 할당량 증가를 요청할 수 있습니다. 할당량을 늘려야 하는 경우 최소 2주 전에 상향 조정을 요청하세요. 특히 할당량을 크게 늘려야 하는 경우 할당량 상향 조정을 완료하는 데 시간이 걸립니다.

최대 행 크기 10MB 이 값을 초과하면 invalid 오류가 발생합니다.
HTTP 요청 크기 한도 10MB

이 값을 초과하면 invalid 오류가 발생합니다.

내부적으로 요청의 HTTP JSON이 내부 데이터 구조로 변환됩니다. 변환된 데이터 구조에는 자체적으로 적용되는 크기 한도가 있습니다. 결과로 도출되는 내부 데이터 구조의 크기를 예측하기는 어렵지만 HTTP 요청을 10MB 이하로 유지하면 내부 한도에 도달할 확률이 낮습니다.

요청당 최대 행 수 행 50,000개 최대 500행을 사용하는 것이 좋습니다. 일괄 처리로 성능과 처리량을 일정 정도 높일 수 있지만 요청당 지연 시간은 증가합니다. 요청당 행 수 및 각 요청의 오버헤드가 너무 적으면 수집의 효율성이 떨어질 수 있습니다. 요청당 행 수가 너무 많은 경우 처리량이 감소할 수 있습니다. 대표 데이터(스키마 및 데이터 크기)를 사용해 실험하여 데이터에 적합한 배치 크기를 결정합니다.
insertId 필드 길이 128자(영문 기준) 이 값을 초과하면 invalid 오류가 발생합니다.

추가 스트리밍 할당량은 할당량 상향 요청을 참조하세요.

대역폭

복제 대역폭에는 다음 할당량이 적용됩니다.

할당량 기본값 참고
기본 복제본에서 보조 복제본으로의 교차 리전 데이터 이그레스가 있는 각 리전의 최대 초기 백필 복제 대역폭입니다. 대부분의 프로젝트에 대한 리전별 할당량당 물리적 10Gbps
기본 복제본에서 보조 복제본으로의 교차 리전 데이터 이그레스가 있는 각 리전의 최대 지속적 복제 대역폭입니다. 대부분의 프로젝트에 대한 리전별 할당량당 물리적 5GBps
기본 복제본에서 보조 복제본으로의 교차 리전 데이터 이그레스가 있는 각 리전의 최대 터보 복제 대역폭입니다. 대부분의 프로젝트에 대한 리전 기본 할당량당 물리적 5GBps 터보 복제 대역폭 할당량은 초기 백필 작업에 적용되지 않습니다.

프로젝트의 복제 대역폭이 특정 할당량을 초과하면 영향을 받은 프로젝트의 복제가 초과된 할당량의 세부정보가 포함된 rateLimitExceeded 오류와 함께 중지될 수 있습니다.