匯出資料表資料

這個頁面說明如何從 BigQuery 資料表匯出資料。

將資料載入 BigQuery 後,您就可以匯出數種格式的資料。BigQuery 對每個檔案最多可匯出 1 GB 資料。如果匯出的資料超過 1 GB,就必須將資料匯出至多個檔案。將資料匯出至多個檔案時,各檔案的大小會有所差異。

您可以使用 Cloud Dataflow 這類服務從 BigQuery 讀取資料,而不是手動匯出資料。如需使用 Cloud Dataflow 讀取及寫入 BigQuery 的更多資訊,請參閱 Apache Beam 說明文件中的 BigQuery I/O 相關主題。

所需權限

  • 對於包含匯出資料的資料集,請確認您擁有 READER 存取權。您也可以使用提供 bigquery.tables.export 權限的任何預先定義專案層級 BigQuery 身分與存取權管理 (IAM) 角色,例如 bigquery.dataViewerbigquery.dataOwnerbigquery.dataEditorbigquery.admin。當您指派專案層級的 IAM 角色時,使用者或群組會擁有專案中每個資料表的 bigquery.tables.export 權限。
  • 確認您擁有 Cloud Storage 值區的 WRITER 權限,或已獲派預先定義的身分與存取權管理角色,讓您擁有將物件寫入值區的權限。您只能將資料從 BigQuery 匯出到 Cloud Storage 值區。如要瞭解 Cloud Storage IAM 角色,請參閱 Cloud Storage IAM 角色一文。
  • 執行匯出工作需要 bigquery.jobs.create 權限。您可以授予以下任何預先定義的 IAM 角色來設定專案層級的 bigquery.jobs.create 權限:

    • bigquery.user
    • bigquery.jobUser
    • bigquery.admin

匯出限制

當您從 BigQuery 匯出資料時,請注意以下幾點:

  • 您無法將資料表資料匯出至本機檔案、Google 試算表或 Google 雲端硬碟。唯一支援的匯出位置是 Cloud Storage。如需儲存查詢結果的相關資訊,請查看下載並儲存查詢結果一節。
  • 您最多可將 1 GB 的資料表資料匯出至單一檔案。如果您匯出的資料超過 1 GB,請使用萬用字元將資料匯出到多個檔案。將資料匯出至多個檔案時,各檔案的大小會有所差異。
  • 您無法將巢狀與重複資料匯出成 CSV 格式。巢狀與重複資料適用於 Avro 和 JSON 匯出。
  • 當您匯出 JSON 格式的資料時,會將 INT64 (整數) 資料類型編碼為 JSON 字串,以於其他系統讀取資料時保留 64 位元精確度。
  • 您無法在單一匯出工作中,從多個資料表匯出資料。
  • 當您從分區資料表匯出資料時,無法匯出個別分區。
  • 透過 GCP 主控台或傳統 BigQuery 網頁版 UI 匯出資料時,您無法選擇 GZIP 以外的壓縮類型。

位置注意事項

選擇資料的位置時,請考慮下列事項:

  • 將多個 Cloud Storage 值區並置於相同位置,以利匯出資料。
    • 當您匯出資料時,地區或多地區的 Cloud Storage 值區必須跟 BigQuery 資料集位於相同位置。舉例來說,如果您的 BigQuery 資料集位在歐盟多地區位置,則包含匯出資料的 Cloud Storage 值區就必須位在歐盟的地區或多地區位置。
    • 如果您的資料集是位在地區位置,則您的 Cloud Storage 值區必須是位在相同位置的地區值區。舉例來說,如果您的資料集是位在東京地區,則您的 Cloud Storage 值區必須是位在東京的地區值區。
    • 例外情況:如果您的資料集是位在美國多地區位置,則您可將資料匯出至任何地區或多地區位置的 Cloud Storage 值區裡。
  • 擬定資料管理方案。
    • 如果您選擇的是地區儲存資源,例如 BigQuery 資料集或 Cloud Storage 值區,則請擬定資料的地理區域管理方案。

如要進一步瞭解 Cloud Storage 位置,請參閱 Cloud Storage 說明文件中的值區位置一文。

在不同位置之間移動 BigQuery 資料

資料集建立之後,就無法更改位置。此外,您也無法在不同位置之間移動資料集。如果您需要將資料集移到別的位置,請依循下列流程:

  1. 從 BigQuery 資料表匯出資料到地區或多地區 Cloud Storage 值區,而且這個值區必須跟資料集位於相同位置。舉例來說,如果您的資料集位在歐盟的多地區位置,則應將資料匯出至歐盟的單一地區或多地區值區。

    從 BigQuery 中匯出資料並不需要付費,但是在 Cloud Storage 儲存匯出的資料將產生費用。匯出 BigQuery 資料時,必須遵守匯出工作的相關限制。

  2. 從您的 Cloud Storage 值區中,將資料複製或移動至新位置的地區或多地區值區。舉例來說,如果您要將資料從美國多地區位置移到東京的單一地區位置,則必須把資料移轉到東京的地區值區。要瞭解如何轉移 Cloud Storage 物件的資訊,請參閱 Cloud Storage 說明文件中的重新命名、複製及移動物件頁面。

    請注意,在不同地區之間轉移資料將導致 Cloud Storage 產生網路輸出費用

  3. 當您將資料轉移至新位置的 Cloud Storage 值區之後,請在新位置建立新的 BigQuery 資料集。然後,將您的資料從 Cloud Storage 值區載入 BigQuery。

    將資料載入 BigQuery 無須支付費用,但將資料儲存於 Cloud Storage 則須支付費用,直到您刪除資料或值區為止。載入資料之後,將資料儲存至 BigQuery 亦須支付相關費用。將資料載入 BigQuery 時,必須遵守載入工作的相關限制。

如要進一步瞭解如何透過 Cloud Storage 儲存及移動大型資料集,請參閱將 Cloud Storage 與大數據搭配使用一文。

匯出格式與壓縮類型

BigQuery 支援下列匯出資料用的資料格式與壓縮類型:

資料格式 支援的壓縮類型 說明
CSV GZIP

您可使用 CLI 標記 --field_delimiterconfiguration.extract.fieldDelimiter 來控制匯出資料裡的 CSV 分隔符號。

不支援巢狀與重複資料。

JSON GZIP 支援巢狀與重複資料。
Avro DEFLATE、SNAPPY

Avro 不支援以 GZIP 格式匯出項目。

支援巢狀與重複資料。

匯出儲存在 BigQuery 的資料

匯出資料表資料有下列三種方式:使用 BigQuery 網頁版 UI、使用 bq extract CLI 指令,或透過 API 或用戶端程式庫來提交解壓縮工作

匯出資料表資料

從 BigQuery 資料表匯出資料:

主控台

  1. 在 GCP 主控台中開啟 BigQuery 網頁版 UI。
    前往 BigQuery 網頁版 UI

  2. 在導覽面板的「Resources」(資源) 區段,展開您的專案並選取資料集。找出並點選包含匯出資料的資料表。

  3. 按一下視窗右側的 [Export] (匯出),然後選取 [Export to Cloud Storage] (匯出至 Cloud Storage)

    匯出資料

  4. 在「Export to Cloud Storage」(匯出至 Cloud Storage) 對話方塊中:

    • 針對「Select Cloud Storage location」(選取 Cloud Storage 位置),請瀏覽至您要匯出資料的值區、資料夾或檔案。
    • 為「Export format」(匯出格式) 選擇以下其中一種匯出資料格式:[CSV]、[JSON (Newline Delimited)] (JSON (以換行符號分隔)) 或 [Avro]。
    • 針對「Compression」(壓縮),接受預設值 None,或選擇 GZIP。Avro 格式不能跟 GZIP 壓縮搭配使用。如要壓縮 Avro 資料,請使用 bq 指令列工具或 API,然後指定 Avro 資料支援的其中一種壓縮類型:DEFLATESNAPPY
    • 按一下 [Export] (匯出) 以匯出資料表。

如要查看工作進度,請查看「Export」(匯出) 工作的「Job history」(工作記錄) 導覽區頂端附近。

傳統版 UI

  1. 前往 BigQuery 網頁版 UI。
    前往 BigQuery 網頁版 UI

  2. 在導覽窗格中,按一下要展開的資料集。

  3. 在含有匯出資料的資料表旁,找出「向下箭頭」圖示 向下箭頭圖示圖片 並按一下。

  4. 選取 [Export table] (匯出資料表) 以顯示「Export to Cloud Storage」(匯出至 Cloud Storage) 對話方塊。

  5. 在「Export to Cloud Storage」(匯出至 Cloud Storage) 對話方塊中:

    • 為「Export format」(匯出格式) 選擇以下其中一種匯出資料格式:[CSV]、[JSON (Newline Delimited)] (JSON (以換行符號分隔)) 或 [Avro]。
    • 針對「Compression」(壓縮),接受預設值 None,或選擇 GZIP。Avro 格式不能跟 GZIP 壓縮搭配使用。如要壓縮 Avro 資料,請使用 bq 指令列工具或 API,然後指定 Avro 資料支援的其中一種壓縮類型:DEFLATESNAPPY
    • 在「Cloud Storage URI」文字方塊中,以 gs://[BUCKET_NAME]/[FILENAME.CSV] 格式輸入有效的 URI,其中 [BUCKET_NAME] 是您的 Cloud Storage 值區名稱,[FILENAME] 則是您的目的地檔案名稱。BigQuery 資料集與 Cloud Storage 值區必須位於相同的位置
    • 按一下 [OK] (確定),匯出資料表。

當工作正在執行時,「(extracting)」會顯示在導覽區中資料表的名稱旁。如要檢查工作的進度,請查看導覽區頂部附近,尋找「Extract」工作的「Job History」

指令列


使用 bq extract 指令。

  • bq --location=[LOCATION] extract --destination_format [FORMAT] --compression [COMPRESSION_TYPE] --field_delimiter [DELIMITER] --print_header [BOOLEAN] [PROJECT_ID]:[DATASET].[TABLE] gs://[BUCKET]/[FILENAME]

其中:

  • [LOCATION] 是您的位置名稱。--location 則為選用標記。舉例來說,假設您是在東京地區使用 BigQuery,可將標記的值設為 asia-northeast1。您可以使用 .bigqueryrc 檔案設定位置的預設值。
  • [FORMAT] 是資料匯出格式:CSVNEWLINE_DELIMITED_JSONAVRO
  • [COMPRESSION_TYPE] 是資料格式支援的壓縮類型。 CSVNEWLINE_DELIMITED_JSON 支援 GZIPAVRO 支援 DEFLATESNAPPY
  • [DELIMITER] 是字元,用以表示 CSV 匯出的資料欄界線。\ttab 是可接受的定位點名稱。
  • [BOOLEAN]truefalse。標題列設為 true 且資料格式支援標題時,標題列就會列印在匯出的資料上。預設值為 true
  • [PROJECT_ID] 是您的專案 ID。
  • [DATASET] 是來源資料集的名稱。
  • [TABLE] 是您要匯出的資料表。
  • [BUCKET] 是匯出資料的目標 Cloud Storage 值區名稱。BigQuery 資料集與 Cloud Storage 值區必須位於相同的位置
  • [FILENAME] 是匯出資料檔案的名稱。您可以使用萬用字元匯出至多個檔案。

範例:

例如,以下指令可將 mydataset.mytable 匯出至名為 myfile.csv 的 gzip 壓縮檔案,myfile.csv 儲存在名為 example-bucket 的 Cloud Storage 值區中。

  • bq --location=US extract --compression GZIP 'mydataset.mytable' gs://example-bucket/myfile.csv

預設目的地格式是 CSV。如要匯出為 JSON 或 Avro,請使用 destination_format 標記並將它設定為 NEWLINE_DELIMITED_JSONAVRO。例如:

  • bq --location=US extract --destination_format NEWLINE_DELIMITED_JSON 'mydataset.mytable' gs://example-bucket/myfile.json

以下指令會將 mydataset.mytable 匯出至使用 Snappy 壓縮的 Avro 檔案。檔案會命名為 myfile.avromyfile.avro 匯出至名為 example-bucket 的 Cloud Storage 值區中。

  • bq --location=US extract --destination_format AVRO --compression SNAPPY 'mydataset.mytable' gs://example-bucket/myfile.avro

API


如要匯出資料,請建立工作並填入 configuration.extract 物件。

工作資源jobReference 區段中,於 location 屬性指定您的位置。

  1. 建立指向 BigQuery 來源資料與 Cloud Storage 目的地的擷取工作

  2. 使用 sourceTable 設定物件指定來源資料表,該物件由專案 ID、資料集 ID 與資料表 ID 構成。

  3. 目的地 URI 必須完整,格式必須為 gs://[BUCKET_NAME]/[FILENAME.CSV]。每個 URI 都可以包含一個「*」萬用字元,而且它必須出現在值區名稱之後。

  4. 透過設定 configuration.extract.destinationFormat 屬性,指定資料格式。例如,如要匯出 JSON 檔案,請將這個屬性設定為 NEWLINE_DELIMITED_JSON 值。

  5. 如要檢查工作狀態,請使用初始要求傳回的工作 ID 呼叫 jobs.get([JOB_ID])

    • 出現 status.state = DONE 表示工作順利完成。
    • 出現 status.errorResult 屬性則表示要求失敗,這個物件會包含錯誤相關資訊。
    • 沒出現 status.errorResult 表示工作成功完成,但可能會有一些不嚴重的錯誤。不嚴重的錯誤會列在傳回的工作物件的 status.errors 屬性中。

API 附註:

  • 最佳做法是產生一個唯一 ID,並在呼叫 jobs.insert() 建立工作時,將這個 ID 當做 jobReference.jobId 傳送。此方法較不受網路故障問題的影響,這是因為用戶端可藉由已知的工作 ID 輪詢或重試。

  • 對指定的工作 ID 呼叫 jobs.insert() 是一種冪等運算;換句話說,您可以對同一個工作 ID 重試無數次,最多會有一個作業成功。

C#

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 C# 設定說明進行操作。詳情請參閱 BigQuery C# API 參考說明文件

using Google.Cloud.BigQuery.V2;
using System;

public class BigQueryExtractTable
{
    public void ExtractTable(
        string projectId = "your-project-id",
        string bucketName = "your-bucket-name")
    {
        BigQueryClient client = BigQueryClient.Create(projectId);
        // Define a destination URI. Use a single wildcard URI if you think
        // your exported data will be larger than the 1 GB maximum value.
        string destinationUri = $"gs://{bucketName}/shakespeare-*.csv";
        BigQueryJob job = client.CreateExtractJob(
            projectId: "bigquery-public-data",
            datasetId: "samples",
            tableId: "shakespeare",
            destinationUri: destinationUri
        );
        job.PollUntilCompleted();  // Waits for the job to complete.
        Console.Write($"Exported table to {destinationUri}.");
    }
}

Go

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 Go 設定說明進行操作。詳情請參閱 BigQuery Go API 參考說明文件

srcProject := "bigquery-public-data"
srcDataset := "samples"
srcTable := "shakespeare"

// For example, gcsUri = "gs://mybucket/shakespeare.csv"
gcsRef := bigquery.NewGCSReference(gcsURI)
gcsRef.FieldDelimiter = ","

extractor := client.DatasetInProject(srcProject, srcDataset).Table(srcTable).ExtractorTo(gcsRef)
extractor.DisableHeader = true
// You can choose to run the job in a specific location for more complex data locality scenarios.
// Ex: In this example, source dataset and GCS bucket are in the US.
extractor.Location = "US"

job, err := extractor.Run(ctx)
if err != nil {
	return err
}
status, err := job.Wait(ctx)
if err != nil {
	return err
}
if err := status.Err(); err != nil {
	return err
}

Java

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 Java 設定說明進行操作。詳情請參閱 BigQuery Java API 參考說明文件

Job job = table.extract(format, gcsUrl);
// Wait for the job to complete
try {
  Job completedJob =
      job.waitFor(
          RetryOption.initialRetryDelay(Duration.ofSeconds(1)),
          RetryOption.totalTimeout(Duration.ofMinutes(3)));
  if (completedJob != null && completedJob.getStatus().getError() == null) {
    // Job completed successfully
  } else {
    // Handle error case
  }
} catch (InterruptedException e) {
  // Handle interrupted wait
}

Node.js

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 Node.js 設定說明進行操作。詳情請參閱 BigQuery Node.js API 參考說明文件

// Import the Google Cloud client libraries
const {BigQuery} = require('@google-cloud/bigquery');
const {Storage} = require('@google-cloud/storage');

async function extractTableToGCS() {
  // Exports my_dataset:my_table to gcs://my-bucket/my-file as raw CSV.

  /**
   * TODO(developer): Uncomment the following lines before running the sample.
   */
  // const datasetId = "my_dataset";
  // const tableId = "my_table";
  // const bucketName = "my-bucket";
  // const filename = "file.csv";

  // Instantiate clients
  const bigqueryClient = new BigQuery();
  const storageClient = new Storage();

  // Location must match that of the source table.
  const options = {
    location: 'US',
  };

  // Export data from the table into a Google Cloud Storage file
  const [job] = await bigqueryClient
    .dataset(datasetId)
    .table(tableId)
    .extract(storageClient.bucket(bucketName).file(filename), options);
  // load() waits for the job to finish
  console.log(`Job ${job.id} completed.`);

  // Check the job's status for errors
  const errors = job.status.errors;
  if (errors && errors.length > 0) {
    throw errors;
  }
}
extractTableToGCS();

PHP

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 PHP 設定說明進行操作。詳情請參閱 BigQuery PHP API 參考說明文件

use Google\Cloud\BigQuery\BigQueryClient;

/** Uncomment and populate these variables in your code */
// $projectId  = 'The Google project ID';
// $datasetId  = 'The BigQuery dataset ID';
// $tableId    = 'The BigQuery table ID';
// $bucketName = 'The Cloud Storage bucket Name';

$bigQuery = new BigQueryClient([
    'projectId' => $projectId,
]);
$dataset = $bigQuery->dataset($datasetId);
$table = $dataset->table($tableId);
$destinationUri = "gs://{$bucketName}/{$tableId}.json";
// Define the format to use. If the format is not specified, 'CSV' will be used.
$format = 'NEWLINE_DELIMITED_JSON';
// Create the extract job
$extractConfig = $table->extract($destinationUri)->destinationFormat($format);
// Run the job
$job = $table->runJob($extractConfig);  // Waits for the job to complete
printf('Exported %s to %s' . PHP_EOL, $table->id(), $destinationUri);

Python

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 Python 設定說明進行操作。詳情請參閱 BigQuery Python API 參考說明文件

# from google.cloud import bigquery
# client = bigquery.Client()
# bucket_name = 'my-bucket'
project = "bigquery-public-data"
dataset_id = "samples"
table_id = "shakespeare"

destination_uri = "gs://{}/{}".format(bucket_name, "shakespeare.csv")
dataset_ref = client.dataset(dataset_id, project=project)
table_ref = dataset_ref.table(table_id)

extract_job = client.extract_table(
    table_ref,
    destination_uri,
    # Location must match that of the source table.
    location="US",
)  # API request
extract_job.result()  # Waits for job to complete.

print(
    "Exported {}:{}.{} to {}".format(project, dataset_id, table_id, destination_uri)
)

Ruby

在試用這個範例程式之前,請至 BigQuery 快速入門導覽課程:使用用戶端程式庫,按照 Ruby 設定說明進行操作。詳情請參閱 BigQuery Ruby API 參考說明文件

require "google/cloud/bigquery"

def extract_table(
    bucket_name = "my-bucket",
    dataset_id  = "my_dataset_id",
    table_id    = "my_table_id"
  )
  bigquery = Google::Cloud::Bigquery.new
  dataset  = bigquery.dataset dataset_id
  table    = dataset.table    table_id

  # Define a destination URI. Use a single wildcard URI if you think
  # your exported data will be larger than the 1 GB maximum value.
  destination_uri = "gs://#{bucket_name}/output-*.csv"

  extract_job = table.extract_job(destination_uri) do |config|
    # Location must match that of the source table.
    config.location = "US"
  end
  extract_job.wait_until_done!  # Waits for the job to complete

  puts "Exported #{table.id} to #{destination_uri}"
end

Avro 匯出詳細資料

BigQuery 可以透過以下方式表示 Avro 格式的資料:

  • 結果匯出檔案是 Avro 容器檔案。
  • 每個 BigQuery 資料列都會表示為一筆 Avro 記錄。巢狀資料由巢狀記錄物件表示。
  • REQUIRED 欄位會表示為對應 Avro 類型。例如,BigQuery INTEGER 類型會對應至 Avro LONG 類型。
  • NULLABLE 欄位會表示為對應類型的 Avro Union 與「空值」。
  • REPEATED 欄位會表示為 Avro 陣列。
  • TIMESTAMP 資料類型會表示為 Avro LONG 類型。

Avro 格式無法與 GZIP 壓縮搭配使用。如要壓縮 Avro 資料,請使用 bq 指令列工具或 API,然後指定支援的其中一種 Avro 資料壓縮類型:DEFLATESNAPPY

將資料匯出為一或多個檔案

destinationUris 屬性會指出 BigQuery 應匯出檔案的目標位置與檔案名稱。

BigQuery 支援在每個 URI 中使用一個萬用字元運算子 (*)。除了做為值區名稱的一部分以外,萬用字元可以出現在 URI 中的任何位置。使用萬用字元運算子就會指示 BigQuery 根據提供的模式建立多個資料分割檔案。萬用字元運算子會以數字取代 (從 0 開始),向左填補到到 12 位數。例如,在檔案名稱結尾處使用萬用字元的 URI 建立的檔案,會在第一個檔案結尾附加 000000000000,在第二個檔案結尾附加 000000000001,依此類推。

下表說明 destinationUris 屬性的數個可能選項:

「destinationUris」選項
單一 URI

如果匯出的資料表資料是 1 GB 或更少,請使用單一 URI。這個選項是最常用的情況,因為匯出的資料一般小於 1 GB 的上限值。

屬性定義:

['gs://[YOUR_BUCKET]/file-name.json']

建立:


gs://my-bucket/file-name.json
單一萬用字元 URI

如果匯出的資料會大於 1 GB 的上限值,請使用單一萬用字元 URI。BigQuery 會根據提供的模式,將資料分割為多個檔案。匯出檔案的大小會有所差異。

如果是在檔案名稱以外的 URI 元件中使用萬用字元,務必先確認路徑元件不存在,再匯出資料。

屬性定義:

['gs://[YOUR_BUCKET]/file-name-*.json']

建立:


gs://my-bucket/file-name-000000000000.json
gs://my-bucket/file-name-000000000001.json
gs://my-bucket/file-name-000000000002.json
...
多個萬用字元 URI

如要分割匯出輸出,請使用多個萬用字元 URI。如要使用 Cloud Dataproc 等服務執行平行處理工作,請使用這個選項。確認有多少工作站可以處理工作,並為每個工作站建立一個 URI。BigQuery 會將每個 URI 位置當成一個分區處理,並使用平行處理,將每個位置的資料分割為多個檔案。假定每個 URI 中都有一個萬用字元運算子,每個 URI 都不重複,而且 URI 的數目不超過配額政策,您就可以在檔案名稱中使用任何您想要的模式。

當您傳送一個以上的萬用字元 URI 時,BigQuery 會在每個分區的結尾建立一個特殊檔案,並由這個檔案來指示組合中的「最終」檔案。檔案名稱會指出 BigQuery 建立了多少資料分割。

舉例來說,如果您的萬用字元 URI 是 gs://[YOUR_BUCKET]/file-name- <worker number>-*.json,且 BigQuery 建立了 80 個資料分割檔案,則零記錄檔案名稱為 gs://my-bucket/file- name-<worker number>-000000000080.json。您可以使用這個檔案名稱來確定 BigQuery 建立了 80 個資料分割檔案 (名為 000000000000-000000000079)。

請注意,根據資料格式而定 (例如當以含資料欄標頭的 CSV 格式匯出資料時),零記錄檔案可能包含 0 位元組以上。

字串模式:

gs://[YOUR_BUCKET]/file-name-<worker number>-*.json

屬性定義:


['gs://my-bucket/file-name-1-*.json',
'gs://my-bucket/file-name-2-*.json',
'gs://my-bucket/file-name-3-*.json']

建立:

這個範例假設 BigQuery 在每個分區中建立了 80 個資料分割檔案。


gs://my-bucket/file-name-1-000000000000.json
gs://my-bucket/file-name-1-000000000001.json
...
gs://my-bucket/file-name-1-000000000080.json
gs://my-bucket/file-name-2-000000000000.json
gs://my-bucket/file-name-2-000000000001.json
...
gs://my-bucket/file-name-2-000000000080.json
gs://my-bucket/file-name-3-000000000000.json
gs://my-bucket/file-name-3-000000000001.json
...
gs://my-bucket/file-name-3-000000000080.json

配額政策

如要瞭解匯出工作配額,請參閱「配額與限制」頁面的匯出工作一節。

定價

目前從 BigQuery 匯出資料並不收費,但匯出作業須遵循 BigQuery 的配額與限制

如要進一步瞭解 BigQuery 定價,請參閱定價頁面。

匯出資料之後,系統會因您在 Cloud Storage 中儲存資料而向您收取費用。

如要進一步瞭解 Cloud Storage 定價,請參閱 Cloud Storage 定價頁面。

後續步驟

本頁內容對您是否有任何幫助?請提供意見:

傳送您對下列選項的寶貴意見...

這個網頁