Mengekspor resource FHIR ke BigQuery

Halaman ini menjelaskan cara mengekspor resource FHIR ke BigQuery untuk eksplorasi dan analisis. Operasi ekspor menghasilkan satu tabel BigQuery untuk setiap jenis resource FHIR di penyimpanan FHIR.

Untuk meningkatkan performa kueri dan mengurangi biaya, Anda dapat mengonfigurasi streaming BigQuery ke tabel yang dipartisi. Untuk mengetahui petunjuknya, lihat Mengekspor resource FHIR ke tabel yang dipartisi.

Menetapkan izin BigQuery

Sebelum mengekspor resource FHIR ke BigQuery, Anda harus memberikan izin tambahan ke akun layanan Agen Layanan Cloud Healthcare. Untuk mengetahui informasi selengkapnya, lihat izin BigQuery penyimpanan FHIR.

Mengekspor resource FHIR

Contoh berikut menunjukkan cara mengekspor resource FHIR ke tabel BigQuery.

Saat menetapkan tujuan BigQuery, gunakan URI yang sepenuhnya memenuhi syarat, seperti berikut:

bq://PROJECT_ID.BIGQUERY_DATASET_ID.BIGQUERY_TABLE_ID

Perilaku operasi ekspor dapat bervariasi bergantung pada hal berikut:

  • Apakah tabel tujuan sudah ada.
  • Apakah Anda menetapkan kolom force.
  • Apakah Anda menentukan enum di WriteDisposition. Jika Anda menentukan enum, jangan tetapkan kolom force.

Perilaku dalam setiap kasus ini adalah sebagai berikut:

  • Jika tabel tujuan sudah ada dan force ditetapkan ke true, operasi ekspor akan menimpa tabel yang ada.
  • Jika tabel tujuan sudah ada dan force ditetapkan ke false, error akan terjadi.
  • Jika tabel tujuan belum ada, operasi ekspor akan membuat tabel baru, terlepas dari apakah Anda menentukan kolom force atau tidak.
  • Saat menggunakan WriteDisposition, jika tabel tujuan sudah ada dan kosong, operasi ekspor akan berhasil diselesaikan, bukan menampilkan error.

Operasi tersebut menghasilkan satu tabel BigQuery untuk setiap jenis resource di penyimpanan FHIR.

Konsol

Untuk mengekspor resource FHIR ke BigQuery menggunakan Konsol Google Cloud, selesaikan langkah-langkah berikut:

  1. Di konsol Google Cloud, buka halaman Datasets.

    Buka Set Data

  2. Klik set data yang memiliki penyimpanan FHIR dengan data yang Anda ekspor.

  3. Di baris yang sama dengan toko FHIR, buka daftar Tindakan, lalu pilih Ekspor.

  4. Di halaman Export FHIR resources yang muncul, temukan bagian Select a destination. Pilih Tabel BigQuery.

  5. Di bagian Disposisi penulisan tabel tujuan, pilih salah satu opsi berikut untuk menentukan perilaku operasi ekspor:

    • Hanya ekspor data jika tabel tujuan kosong: hal ini sama dengan memilih enum WRITE_EMPTY di WriteDisposition.
    • Menambahkan data ke tabel tujuan: cara ini sama dengan memilih enum WRITE_APPEND di WriteDisposition.
    • Hapus semua data yang ada dalam tabel tujuan sebelum menulis resource FHIR: hal ini sama dengan memilih enum WRITE_TRUNCATE di WriteDisposition.
  6. Di bagian FHIR Export configuration, klik Browse untuk memilih project dan set data BigQuery.

  7. Di menu dropdown Jenis skema, pilih skema output untuk tabel BigQuery. Skema berikut tersedia:

    • Analisis. Skema berdasarkan dokumen SQL di FHIR. Karena BigQuery hanya mengizinkan 10.000 kolom per tabel, skema tidak akan dibuat untuk kolom Parameters.parameter.resource, Bundle.entry.resource, dan Bundle.entry.response.outcome.
    • Analytics V2. Skema yang mirip dengan skema Analytics, dengan dukungan tambahan untuk hal berikut: Skema Analytics V2 menggunakan lebih banyak ruang di tabel tujuan daripada skema Analytics.

  8. Pilih level kedalaman di penggeser Recursive Structure Depth guna menetapkan kedalaman untuk semua struktur rekursif dalam skema output. Secara default, nilai rekursifnya adalah 2.

    Untuk informasi selengkapnya, lihat recursiveStructureDepth.

  9. Klik Export untuk mengekspor resource FHIR ke BigQuery.

  10. Untuk melacak status operasi, klik tab Operasi. Setelah operasi selesai, indikasi berikut akan muncul:
    • Bagian Long-running Operations status memiliki tanda centang hijau di bawah heading OK.
    • Bagian Overview memiliki tanda centang hijau dan indikator OK di baris yang sama dengan ID operasi.
    Jika Anda mengalami error, klik Tindakan, lalu klik View details in Cloud Logging.

gcloud

Untuk mengekspor resource FHIR ke BigQuery, jalankan perintah gcloud healthcare fhir-stores export bq.

  1. Mengekspor resource FHIR.

    Sebelum menggunakan salah satu data perintah di bawah, lakukan penggantian berikut:

    • PROJECT_ID: ID project Google Cloud Anda
    • LOCATION: lokasi set data
    • DATASET_ID: set data induk penyimpanan FHIR
    • FHIR_STORE_ID: ID toko FHIR
    • BIGQUERY_DATASET_ID: nama set data BigQuery yang sudah ada tempat Anda mengekspor resource FHIR
    • SCHEMA_TYPE: nilai untuk SchemaType. Gunakan salah satu nilai berikut:
      • analytics. Skema berdasarkan dokumen SQL pada FHIR. Karena BigQuery hanya mengizinkan 10.000 kolom per tabel, skema tidak akan dibuat untuk kolom Parameters.parameter.resource, Bundle.entry.resource, dan Bundle.entry.response.outcome.
      • analytics_v2. Skema yang mirip dengan analytics dengan dukungan tambahan untuk hal berikut:

        analytics-v2 menggunakan lebih banyak ruang di tabel tujuan daripada analytics.

    • WRITE_DISPOSITION: nilai untuk WriteDisposition. Gunakan salah satu nilai berikut:
      • write-empty. Hanya ekspor data jika tabel BigQuery tujuan kosong.
      • write-truncate. Hapus semua data yang ada di tabel BigQuery sebelum menulis resource FHIR.
      • write-append. Tambahkan data ke tabel BigQuery tujuan.
    • FHIR_RESOURCE_TYPE: kolom opsional. Tentukan satu atau beberapa jenis resource FHIR yang dipisahkan koma untuk hanya mengekspor resource FHIR dari jenis tersebut.
    • SINCE_TIMESTAMP: kolom opsional. Tentukan nilai dalam format YYYY-MM-DDThh:mm:ss.sss+zz:zz untuk hanya mengekspor resource FHIR yang diupdate setelah waktu tertentu. Tentukan waktu ke detik dan sertakan zona waktu. Misalnya, 2015-02-07T13:28:17.239+02:00 dan 2017-01-01T00:00:00Z adalah waktu yang valid.

    Jalankan perintah berikut:

    Linux, macOS, atau Cloud Shell

    gcloud healthcare fhir-stores export bq FHIR_STORE_ID \
      --location=LOCATION \
      --dataset=DATASET_ID \
      --bq-dataset=bq://PROJECT_ID.BIGQUERY_DATASET_ID \
      --schema-type=SCHEMA_TYPE \
      --write-disposition=WRITE_DISPOSITION \
      --resource-type=FHIR_RESOURCE_TYPE \
      --since=SINCE_TIMESTAMP
    

    Windows (PowerShell)

    gcloud healthcare fhir-stores export bq FHIR_STORE_ID `
      --location=LOCATION `
      --dataset=DATASET_ID `
      --bq-dataset=bq://PROJECT_ID.BIGQUERY_DATASET_ID `
      --schema-type=SCHEMA_TYPE `
      --write-disposition=WRITE_DISPOSITION `
      --resource-type=FHIR_RESOURCE_TYPE `
      --since=SINCE_TIMESTAMP
    

    Windows (cmd.exe)

    gcloud healthcare fhir-stores export bq FHIR_STORE_ID ^
      --location=LOCATION ^
      --dataset=DATASET_ID ^
      --bq-dataset=bq://PROJECT_ID.BIGQUERY_DATASET_ID ^
      --schema-type=SCHEMA_TYPE ^
      --write-disposition=WRITE_DISPOSITION ^
      --resource-type=FHIR_RESOURCE_TYPE ^
      --since=SINCE_TIMESTAMP
    
    Tanggapannya adalah sebagai berikut. Respons berisi ID untuk operasi yang berjalan lama. Operasi yang berjalan lama ditampilkan ketika panggilan metode mungkin memerlukan waktu yang lama untuk diselesaikan. Perintah ini melakukan polling pada operasi yang berjalan lama, lalu mencetak nama operasi tersebut di kolom name setelah ekspor selesai. Catat nilai OPERATION_ID. Anda memerlukan nilai ini di langkah berikutnya.

    Respons

    Request issued for: [FHIR_STORE_ID]
    Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...⠏
    name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID
    

  2. Untuk melihat detail operasi selengkapnya, jalankan gcloud healthcare operations describe dan berikan OPERATION_ID dari respons.

    Sebelum menggunakan salah satu data perintah di bawah, lakukan penggantian berikut:

    • PROJECT_ID: ID project Google Cloud Anda
    • DATASET_ID: ID set data
    • LOCATION: lokasi set data
    • OPERATION_ID: ID yang ditampilkan dari operasi yang berjalan lama

    Jalankan perintah berikut:

    Linux, macOS, atau Cloud Shell

    gcloud healthcare operations describe OPERATION_ID \
        --project=PROJECT_ID \
        --dataset=DATASET_ID \
        --location=LOCATION
    

    Windows (PowerShell)

    gcloud healthcare operations describe OPERATION_ID `
        --project=PROJECT_ID `
        --dataset=DATASET_ID `
        --location=LOCATION
    

    Windows (cmd.exe)

    gcloud healthcare operations describe OPERATION_ID ^
        --project=PROJECT_ID ^
        --dataset=DATASET_ID ^
        --location=LOCATION
    

    Anda akan melihat respons seperti berikut:

    Respons

    done: true
    // If there were any errors, an `error` field displays instead of a `response` field.
    // See Troubleshooting long-running operations for a list of response codes.
    error: ERROR
      code: ERROR_CODE
      message: DESCRIPTION
    metadata:
      '@type': 'type.googleapis.com/google.cloud.healthcare.v1.OperationMetadata'
      apiMethodName: 'google.cloud.healthcare.v1.fhir.FhirStoreService.ExportResources_bq'
      counter:
        success: 'SUCCESS_COUNT'
        // If there were any failures, they display in the `failure` field.
        failure: 'FAILURE_COUNT'
      createTime: 'YYYY-MM-DDTHH:MM:SS+ZZ:ZZ'
      endTime: 'YYYY-MM-DDTHH:MM:SS+ZZ:ZZ'
      logsUrl: https://console.cloud.google.com/CLOUD_LOGGING_URL
    name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID
    // The `response` field only displays if there were no errors.
    response:
      '@type': 'type.googleapis.com/google.cloud.healthcare.v1.fhir.ExportResourcesResponse'
    

REST

Untuk mengekspor resource FHIR ke BigQuery, gunakan metode projects.locations.datasets.fhirStores.export.

  1. Ekspor resource FHIR:

    Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

    • PROJECT_ID: ID project Google Cloud Anda
    • LOCATION: lokasi set data
    • DATASET_ID: set data induk penyimpanan FHIR
    • FHIR_STORE_ID: ID toko FHIR
    • BIGQUERY_DATASET_ID: nama set data BigQuery yang sudah ada tempat Anda mengekspor resource FHIR
    • SCHEMA_TYPE: nilai untuk SchemaType. Gunakan salah satu nilai berikut:
      • ANALYTICS. Skema berdasarkan dokumen SQL pada FHIR. Karena BigQuery hanya mengizinkan 10.000 kolom per tabel, skema tidak akan dibuat untuk kolom Parameters.parameter.resource, Bundle.entry.resource, dan Bundle.entry.response.outcome.
      • ANALYTICS_V2. Skema yang mirip dengan ANALYTICS dengan dukungan tambahan untuk hal berikut:

        ANALYTICS_V2 menggunakan lebih banyak ruang di tabel tujuan daripada ANALYTICS

        .
    • WRITE_DISPOSITION: nilai untuk WriteDisposition. Gunakan salah satu nilai berikut:
      • WRITE_EMPTY. Hanya ekspor data jika tabel BigQuery tujuan kosong.
      • WRITE_TRUNCATE. Hapus semua data yang ada di tabel BigQuery sebelum menulis resource FHIR.
      • WRITE_APPEND. Tambahkan data ke tabel BigQuery tujuan.
    • FHIR_RESOURCE_TYPE: kolom opsional. Tentukan satu atau beberapa jenis resource FHIR yang dipisahkan koma untuk hanya mengekspor resource FHIR dari jenis tersebut.
    • SINCE_TIMESTAMP: kolom opsional. Tentukan nilai dalam format YYYY-MM-DDThh:mm:ss.sss+zz:zz untuk hanya mengekspor resource FHIR yang diupdate setelah waktu tertentu. Tentukan waktu ke detik dan sertakan zona waktu. Misalnya, 2015-02-07T13:28:17.239+02:00 dan 2017-01-01T00:00:00Z adalah waktu yang valid.

    Meminta isi JSON:

    {
      "bigqueryDestination": {
        "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID",
        "schemaConfig": {
          "schemaType": "SCHEMA_TYPE",
        },
        "writeDisposition": "WRITE_DISPOSITION"
      },
      "_type": "FHIR_RESOURCE_TYPE",
      "_since": "SINCE_TIMESTAMP"
    }
    

    Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:

    curl

    Simpan isi permintaan dalam file bernama request.json. Jalankan perintah berikut di terminal untuk membuat atau menimpa file ini di direktori saat ini:

    cat > request.json << 'EOF'
    {
      "bigqueryDestination": {
        "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID",
        "schemaConfig": {
          "schemaType": "SCHEMA_TYPE",
        },
        "writeDisposition": "WRITE_DISPOSITION"
      },
      "_type": "FHIR_RESOURCE_TYPE",
      "_since": "SINCE_TIMESTAMP"
    }
    EOF

    Kemudian, jalankan perintah berikut untuk mengirim permintaan REST Anda:

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export"

    PowerShell

    Simpan isi permintaan dalam file bernama request.json. Jalankan perintah berikut di terminal untuk membuat atau menimpa file ini di direktori saat ini:

    @'
    {
      "bigqueryDestination": {
        "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID",
        "schemaConfig": {
          "schemaType": "SCHEMA_TYPE",
        },
        "writeDisposition": "WRITE_DISPOSITION"
      },
      "_type": "FHIR_RESOURCE_TYPE",
      "_since": "SINCE_TIMESTAMP"
    }
    '@  | Out-File -FilePath request.json -Encoding utf8

    Kemudian jalankan perintah berikut untuk mengirim permintaan REST Anda:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export" | Select-Object -Expand Content

    APIs Explorer

    Salin isi permintaan dan buka halaman referensi metode. Panel APIs Explorer akan terbuka di sisi kanan halaman. Anda bisa berinteraksi dengan alat ini untuk mengirim permintaan. Tempelkan isi permintaan di alat ini, lengkapi kolom wajib lainnya, lalu klik Jalankan.

    Outputnya adalah sebagai berikut. Respons berisi ID untuk operasi yang berjalan lama (LRO). Operasi yang berjalan lama ditampilkan ketika panggilan metode mungkin memerlukan waktu tambahan untuk diselesaikan. Catat nilai OPERATION_ID. Anda memerlukan nilai ini di langkah berikutnya.

  2. Gunakan metode projects.locations.datasets.operations.get untuk mendapatkan status operasi yang berjalan lama.

    Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

    • PROJECT_ID: ID project Google Cloud Anda
    • DATASET_ID: ID set data
    • LOCATION: lokasi set data
    • OPERATION_ID: ID yang ditampilkan dari operasi yang berjalan lama

    Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:

    curl

    Jalankan perintah berikut:

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"

    PowerShell

    Jalankan perintah berikut:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method GET `
    -Headers $headers `
    -Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand Content

    APIs Explorer

    Buka halaman referensi metode. Panel APIs Explorer akan terbuka di sisi kanan halaman. Anda bisa berinteraksi dengan alat ini untuk mengirim permintaan. Lengkapi kolom yang wajib diisi, lalu klik Jalankan.

    Outputnya adalah sebagai berikut. Jika respons berisi "done": true, berarti operasi yang berjalan lama telah selesai.

Mengekspor resource FHIR ke tabel yang dipartisi

Untuk mengekspor resource FHIR ke tabel yang dipartisi BigQuery, tetapkan enum TimePartitioning di kolom lastUpdatedPartitionConfig di penyimpanan FHIR Anda.

Tabel yang dipartisi berfungsi seperti tabel berpartisi unit waktu BigQuery. Tabel yang dipartisi memiliki kolom tambahan bernama lastUpdated, yang merupakan duplikat dari kolom meta.lastUpdated yang dihasilkan dari kolom meta.lastUpdated di resource FHIR. BigQuery menggunakan kolom lastUpdated untuk mempartisi tabel berdasarkan jam, hari, bulan, atau tahun.

Lihat Memilih partisi harian, per jam, bulanan, atau tahunan untuk mendapatkan rekomendasi tentang cara memilih perincian partisi.

Anda tidak dapat mengonversi tabel BigQuery yang sudah ada yang tidak dipartisi menjadi tabel yang dipartisi. Jika Anda mengekspor perubahan resource Pasien ke tabel Patients yang tidak dipartisi, lalu membuat penyimpanan FHIR baru dengan partisi tabel yang diekspor ke set data BigQuery yang sama, Cloud Healthcare API tetap mengekspor data ke tabel Patients yang tidak dipartisi. Untuk mulai menggunakan tabel yang dipartisi, hapus tabel Patients yang ada atau gunakan set data BigQuery yang berbeda.

Jika menambahkan partisi ke konfigurasi penyimpanan FHIR yang ada, Anda masih dapat mengekspor ke tabel yang tidak dipartisi yang ada. Namun, partisi hanya akan berlaku pada tabel baru.

Contoh berikut menunjukkan cara mengekspor resource FHIR ke tabel yang dipartisi BigQuery.

Konsol

Konsol Google Cloud dan gcloud CLI tidak mendukung tindakan ini. Sebagai gantinya, gunakan curl, PowerShell, atau bahasa pilihan Anda.

gcloud

Konsol Google Cloud dan gcloud CLI tidak mendukung tindakan ini. Sebagai gantinya, gunakan curl, PowerShell, atau bahasa pilihan Anda.

REST

Untuk mengekspor resource FHIR ke tabel yang dipartisi BigQuery, gunakan metode projects.locations.datasets.fhirStores.export.

  1. Ekspor resource FHIR:

    Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

    • PROJECT_ID: ID project Google Cloud Anda
    • LOCATION: lokasi set data
    • DATASET_ID: set data induk penyimpanan FHIR
    • FHIR_STORE_ID: ID toko FHIR
    • BIGQUERY_DATASET_ID: nama set data BigQuery yang sudah ada tempat Anda mengekspor resource FHIR
    • SCHEMA_TYPE: nilai untuk SchemaType. Gunakan salah satu nilai berikut:
      • ANALYTICS. Skema berdasarkan dokumen SQL pada FHIR. Karena BigQuery hanya mengizinkan 10.000 kolom per tabel, skema tidak akan dibuat untuk kolom Parameters.parameter.resource, Bundle.entry.resource, dan Bundle.entry.response.outcome.
      • ANALYTICS_V2. Skema yang mirip dengan ANALYTICS dengan dukungan tambahan untuk hal berikut:

        ANALYTICS_V2 menggunakan lebih banyak ruang di tabel tujuan daripada ANALYTICS

        .
    • TIME_PARTITION_TYPE: tingkat perincian partisi resource FHIR yang diekspor. Gunakan salah satu nilai berikut:
      • HOUR: data partisi berdasarkan jam
      • DAY: data partisi berdasarkan hari
      • MONTH: data partisi berdasarkan bulan
      • YEAR: data partisi berdasarkan tahun
    • WRITE_DISPOSITION: nilai untuk WriteDisposition. Gunakan salah satu nilai berikut:
      • WRITE_EMPTY: hanya mengekspor data jika tabel BigQuery kosong.
      • WRITE_TRUNCATE: hapus semua data yang ada di tabel BigQuery sebelum menulis instance DICOM.
      • WRITE_APPEND: menambahkan data ke tabel BigQuery.

    Meminta isi JSON:

    {
      "bigqueryDestination": {
        "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID",
        "schemaConfig": {
          "schemaType": "SCHEMA_TYPE",
          "lastUpdatedPartitionConfig": {
            "type": "TIME_PARTITION_TYPE"
          }
        },
        "writeDisposition": "WRITE_DISPOSITION"
      }
    }
    

    Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:

    curl

    Simpan isi permintaan dalam file bernama request.json. Jalankan perintah berikut di terminal untuk membuat atau menimpa file ini di direktori saat ini:

    cat > request.json << 'EOF'
    {
      "bigqueryDestination": {
        "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID",
        "schemaConfig": {
          "schemaType": "SCHEMA_TYPE",
          "lastUpdatedPartitionConfig": {
            "type": "TIME_PARTITION_TYPE"
          }
        },
        "writeDisposition": "WRITE_DISPOSITION"
      }
    }
    EOF

    Kemudian, jalankan perintah berikut untuk mengirim permintaan REST Anda:

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -d @request.json \
    "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export"

    PowerShell

    Simpan isi permintaan dalam file bernama request.json. Jalankan perintah berikut di terminal untuk membuat atau menimpa file ini di direktori saat ini:

    @'
    {
      "bigqueryDestination": {
        "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID",
        "schemaConfig": {
          "schemaType": "SCHEMA_TYPE",
          "lastUpdatedPartitionConfig": {
            "type": "TIME_PARTITION_TYPE"
          }
        },
        "writeDisposition": "WRITE_DISPOSITION"
      }
    }
    '@  | Out-File -FilePath request.json -Encoding utf8

    Kemudian jalankan perintah berikut untuk mengirim permintaan REST Anda:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method POST `
    -Headers $headers `
    -ContentType: "application/json; charset=utf-8" `
    -InFile request.json `
    -Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export" | Select-Object -Expand Content

    APIs Explorer

    Salin isi permintaan dan buka halaman referensi metode. Panel APIs Explorer akan terbuka di sisi kanan halaman. Anda bisa berinteraksi dengan alat ini untuk mengirim permintaan. Tempelkan isi permintaan di alat ini, lengkapi kolom lainnya yang wajib diisi, lalu klik Jalankan.

    Anda akan melihat respons JSON seperti berikut:

  2. Gunakan metode projects.locations.datasets.operations.get untuk mendapatkan status operasi yang berjalan lama.

    Sebelum menggunakan salah satu data permintaan, lakukan penggantian berikut:

    • PROJECT_ID: ID project Google Cloud Anda
    • DATASET_ID: ID set data
    • LOCATION: lokasi set data
    • OPERATION_ID: ID yang ditampilkan dari operasi yang berjalan lama

    Untuk mengirim permintaan Anda, pilih salah satu opsi berikut:

    curl

    Jalankan perintah berikut:

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"

    PowerShell

    Jalankan perintah berikut:

    $cred = gcloud auth print-access-token
    $headers = @{ "Authorization" = "Bearer $cred" }

    Invoke-WebRequest `
    -Method GET `
    -Headers $headers `
    -Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand Content

    APIs Explorer

    Buka halaman referensi metode. Panel APIs Explorer akan terbuka di sisi kanan halaman. Anda bisa berinteraksi dengan alat ini untuk mengirim permintaan. Lengkapi kolom yang wajib diisi, lalu klik Jalankan.

    Outputnya adalah sebagai berikut. Jika respons berisi "done": true, berarti operasi yang berjalan lama telah selesai.

Mengkueri tabel yang dipartisi

Untuk mengurangi biaya kueri saat membuat kueri pada tabel yang dipartisi, gunakan klausa WHERE untuk memfilter berdasarkan unit waktu.

Misalnya, Anda menetapkan enum PartitionType ke DAY. Untuk membuat kueri tabel Patients untuk resource Pasien yang diperbarui pada tanggal tertentu, jalankan kueri berikut:

SELECT * FROM `PROJECT_ID.BIGQUERY_DATASET.Patients`
  WHERE DATE(lastUpdated) = 'YYYY-MM-DD'

Membuat kueri dan menganalisis data FHIR di BigQuery

Setelah mengekspor resource FHIR ke BigQuery, baca solusi Menganalisis data FHIR di BigQuery untuk mendapatkan informasi tentang cara membuat kueri dan menganalisis data yang diekspor. Solusi ini menggunakan Data Sintetis yang Dihasilkan SyntheaTM di FHIR, yang menghosting lebih dari 1 juta data pasien sintetis yang dihasilkan dalam format SyntheaTM dan FHIR.

Memecahkan masalah permintaan ekspor FHIR

Jika terjadi error selama permintaan ekspor FHIR, error tersebut akan dicatat ke dalam log ke Cloud Logging. Untuk mengetahui informasi lebih lanjut, baca bagian Melihat log error di Cloud Logging.

Jika seluruh operasi menampilkan error, lihat Memecahkan masalah operasi yang berjalan lama.

Tidak dapat mengonversi kolom dari NULLABLE ke REPEATED

Error ini disebabkan oleh ekstensi berulang. Untuk mengatasi error ini, gunakan jenis skema ANALYTICS_V2. Jika sudah menggunakan ANALYTICS_V2, Anda mungkin mengalami konflik antara dua ekstensi, atau konflik antara ekstensi dan kolom lain.

Nama kolom dihasilkan dari teks setelah karakter / terakhir di URL ekstensi. Jika URL ekstensi diakhiri dengan nilai seperti /resource_field name, konflik dapat terjadi.

Untuk mencegah error ini terjadi lagi, jangan gunakan ekstensi jika nama kolomnya sama dengan kolom resource yang Anda isi.

Langkah selanjutnya