Auf dieser Seite wird erläutert, wie Sie FHIR-Ressourcen zur Untersuchung und Analyse nach BigQuery exportieren. Der Exportvorgang gibt für jeden FHIR-Ressourcentyp im FHIR-Speicher eine BigQuery-Tabelle aus.
Sie können BigQuery-Streaming für partitionierte Tabellen konfigurieren, um die Abfrageleistung zu verbessern und die Kosten zu senken. Eine Anleitung finden Sie unter FHIR-Ressourcen in partitionierte Tabellen exportieren.
BigQuery-Berechtigungen festlegen
Bevor Sie FHIR-Ressourcen nach BigQuery exportieren, müssen Sie dem Dienstkonto Cloud Healthcare Service Agent zusätzliche Berechtigungen erteilen. Weitere Informationen finden Sie unter BigQuery-Berechtigungen für FHIR-Speicher.
FHIR-Ressourcen exportieren
In den folgenden Beispielen wird gezeigt, wie Sie FHIR-Ressourcen in eine BigQuery-Tabelle exportieren.
Verwenden Sie beim Festlegen des BigQuery-Ziels den vollständig qualifizierten URI so:
bq://PROJECT_ID.BIGQUERY_DATASET_ID.BIGQUERY_TABLE_ID
Das Verhalten des Exportvorgangs kann je nach Folgenden Elementen variieren:
- Gibt an, ob die Zieltabelle bereits vorhanden ist.
- Ob Sie das Feld
force
festlegen. - Ob Sie eine Aufzählung in
WriteDisposition
angeben. Wenn Sie eine Aufzählung angeben, dürfen Sie das Feldforce
nicht festlegen.
Das Verhalten in den einzelnen Fällen ist so:
- Wenn die Zieltabelle bereits vorhanden und für
force
der Werttrue
festgelegt ist, wird die vorhandene Tabelle vom Exportvorgang überschrieben. - Wenn die Zieltabelle bereits vorhanden ist und für
force
der Wertfalse
festgelegt ist, tritt ein Fehler auf. - Wenn die Zieltabelle noch nicht vorhanden ist, wird vom Exportvorgang eine neue Tabelle erstellt, unabhängig davon, ob Sie das Feld
force
festlegen. - Wenn Sie
WriteDisposition
verwenden und die Zieltabelle bereits vorhanden und leer ist, wird der Exportvorgang erfolgreich abgeschlossen, anstatt einen Fehler zurückzugeben.
Der Vorgang gibt für jeden Ressourcentyp im FHIR-Speicher eine BigQuery-Tabelle aus.
Console
Führen Sie die folgenden Schritte aus, um FHIR-Ressourcen mithilfe der Google Cloud Console nach BigQuery zu exportieren:
Rufen Sie in der Google Cloud Console die Seite Datasets auf.
Klicken Sie auf das Dataset, das den FHIR-Speicher mit den zu exportierenden Daten enthält.
Öffnen Sie in der Zeile, die sich auch im FHIR-Speicher befindet, die Liste Aktionen und wählen Sie Exportieren aus.
Suchen Sie auf der Seite FHIR-Ressourcen exportieren den Abschnitt Ziel auswählen. Wählen Sie BigQuery-Tabelle aus.
Wählen Sie im Abschnitt Schreibanordnung für Zieltabelle eine der folgenden Optionen aus, um das Verhalten des Exportvorgangs zu bestimmen:
- Daten nur exportieren, wenn die Zieltabellen leer sind: Dies entspricht der Auswahl der Aufzählung
WRITE_EMPTY
inWriteDisposition
. - Daten an Zieltabellen anhängen: Dies entspricht der Auswahl der Aufzählung
WRITE_APPEND
inWriteDisposition
. - Alle vorhandenen Daten in Zieltabellen löschen, bevor die FHIR-Ressourcen geschrieben werden: Dies entspricht der Auswahl der Aufzählung
WRITE_TRUNCATE
inWriteDisposition
.
- Daten nur exportieren, wenn die Zieltabellen leer sind: Dies entspricht der Auswahl der Aufzählung
Klicken Sie im Bereich FHIR-Exportkonfiguration auf Durchsuchen, um das BigQuery-Projekt und das Dataset auszuwählen.
Wählen Sie im Drop-down-Menü Schematyp das Ausgabeschema für die BigQuery-Tabelle aus. Die folgenden Schemas sind verfügbar:
- Analytics: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die Felder
Parameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert. - Analytics Version 2: Ein Schema, das dem Analytics-Schema ähnelt, aber zusätzlich Folgendes unterstützt:
- Erweiterungen mit mehreren Werten für dasselbe
url
- Enthaltene FHIR-Ressourcen
- Erweiterungen mit mehreren Werten für dasselbe
- Analytics: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die Felder
Wählen Sie mit dem Schieberegler Rekursive Strukturtiefe eine Tiefenebene aus, um die Tiefe für alle rekursiven Strukturen im Ausgabeschema festzulegen. Standardmäßig ist der rekursive Wert 2.
Weitere Informationen zu
recursiveStructureDepth
.Klicken Sie auf Exportieren, um FHIR-Ressourcen nach BigQuery zu exportieren.
- Klicken Sie auf den Tab Vorgänge, um den Status des Vorgangs zu verfolgen. Wenn der Vorgang abgeschlossen ist, werden folgende Hinweise angezeigt:
- Im Abschnitt Status: Lang andauernder Vorgang befindet sich unter der Überschrift OK ein grünes Häkchen.
- Der Abschnitt Übersicht hat ein grünes Häkchen und einen OK-Indikator in der Zeile, in der sich auch die Vorgangs-ID befindet.
gcloud
Führen Sie den Befehl gcloud healthcare fhir-stores export bq
aus, um FHIR-Ressourcen nach BigQuery zu exportieren.
Exportieren Sie die FHIR-Ressourcen.
Bevor Sie die folgenden Befehlsdaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID: die ID Ihres Google Cloud-Projekts
- LOCATION ist der Standort des Datasets
- DATASET_ID: das übergeordnete Dataset des FHIR-Speichers
- FHIR_STORE_ID: die FHIR-Speicher-ID
- BIGQUERY_DATASET_ID: der Name des vorhandenen BigQuery-Datasets, in das Sie FHIR-Ressourcen exportieren
- SCHEMA_TYPE: ein Wert für
SchemaType
Verwenden Sie einen der folgenden Werte:analytics
: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die FelderParameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert.analytics_v2
. Ein Schema, dasanalytics
ähnelt und zusätzlich Folgendes unterstützt:- Erweiterungen mit wiederkehrenden Feldern
- Enthaltene FHIR-Ressourcen
analytics-v2
belegt mehr Speicherplatz in der Zieltabelle alsanalytics
.
- WRITE_DISPOSITION: ein Wert für
WriteDisposition
Verwenden Sie einen der folgenden Werte:write-empty
. Exportieren Sie nur dann Daten, wenn die BigQuery-Zieltabellen leer sind.write-truncate
. Löschen Sie alle vorhandenen Daten in den BigQuery-Tabellen, bevor Sie die FHIR-Ressourcen schreiben.write-append
. Hängen Sie Daten an die BigQuery-Zieltabellen an.
- FHIR_RESOURCE_TYPE: ein optionales Feld. Geben Sie einen oder mehrere durch Kommas getrennte FHIR-Ressourcentypen an, um nur FHIR-Ressourcen dieser Typen zu exportieren.
- SINCE_TIMESTAMP: ein optionales Feld. Geben Sie einen Wert im Format
YYYY-MM-DDThh:mm:ss.sss+zz:zz
an, um nur FHIR-Ressourcen zu exportieren, die nach einem bestimmten Zeitpunkt aktualisiert wurden. Geben Sie die Zeit bis auf die Sekunde an und fügen Sie eine Zeitzone hinzu. Zum Beispiel sind2015-02-07T13:28:17.239+02:00
und2017-01-01T00:00:00Z
gültige Zeiten.
Führen Sie den folgenden Befehl aus:
Linux, macOS oder Cloud Shell
gcloud healthcare fhir-stores export bq FHIR_STORE_ID \ --location=LOCATION \ --dataset=DATASET_ID \ --bq-dataset=bq://PROJECT_ID.BIGQUERY_DATASET_ID \ --schema-type=SCHEMA_TYPE \ --write-disposition=WRITE_DISPOSITION \ --resource-type=FHIR_RESOURCE_TYPE \ --since=SINCE_TIMESTAMP
Windows (PowerShell)
gcloud healthcare fhir-stores export bq FHIR_STORE_ID ` --location=LOCATION ` --dataset=DATASET_ID ` --bq-dataset=bq://PROJECT_ID.BIGQUERY_DATASET_ID ` --schema-type=SCHEMA_TYPE ` --write-disposition=WRITE_DISPOSITION ` --resource-type=FHIR_RESOURCE_TYPE ` --since=SINCE_TIMESTAMP
Windows (cmd.exe)
gcloud healthcare fhir-stores export bq FHIR_STORE_ID ^ --location=LOCATION ^ --dataset=DATASET_ID ^ --bq-dataset=bq://PROJECT_ID.BIGQUERY_DATASET_ID ^ --schema-type=SCHEMA_TYPE ^ --write-disposition=WRITE_DISPOSITION ^ --resource-type=FHIR_RESOURCE_TYPE ^ --since=SINCE_TIMESTAMP
name
aus. Notieren Sie sich den Wert vonOPERATION_ID
. Sie benötigen diesen Wert im nächsten Schritt.Antwort
Request issued for: [FHIR_STORE_ID] Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...⠏ name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID
Wenn Sie weitere Details zum Vorgang abrufen möchten, führen Sie den
gcloud healthcare operations describe
aus und geben Sie den OPERATION_ID aus der Antwort an.Bevor Sie die folgenden Befehlsdaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID: die ID Ihres Google Cloud-Projekts
- DATASET_ID: die Dataset-ID
- LOCATION: der Standort des Datasets
- OPERATION_ID ist die ID, die vom lang andauernden Vorgang zurückgegeben wurde
Führen Sie den folgenden Befehl aus:
Linux, macOS oder Cloud Shell
gcloud healthcare operations describe OPERATION_ID \ --project=PROJECT_ID \ --dataset=DATASET_ID \ --location=LOCATION
Windows (PowerShell)
gcloud healthcare operations describe OPERATION_ID ` --project=PROJECT_ID ` --dataset=DATASET_ID ` --location=LOCATION
Windows (cmd.exe)
gcloud healthcare operations describe OPERATION_ID ^ --project=PROJECT_ID ^ --dataset=DATASET_ID ^ --location=LOCATION
Sie sollten eine Antwort ähnlich der folgenden erhalten:
Antwort
done: true // If there were any errors, an `error` field displays instead of a `response` field. // See Troubleshooting long-running operations for a list of response codes. error: ERROR code: ERROR_CODE message: DESCRIPTION metadata: '@type': 'type.googleapis.com/google.cloud.healthcare.v1.OperationMetadata' apiMethodName: 'google.cloud.healthcare.v1.fhir.FhirStoreService.ExportResources_bq' counter: success: 'SUCCESS_COUNT' // If there were any failures, they display in the `failure` field. failure: 'FAILURE_COUNT' createTime: 'YYYY-MM-DDTHH:MM:SS+ZZ:ZZ' endTime: 'YYYY-MM-DDTHH:MM:SS+ZZ:ZZ' logsUrl: https://console.cloud.google.com/CLOUD_LOGGING_URL name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID // The `response` field only displays if there were no errors. response: '@type': 'type.googleapis.com/google.cloud.healthcare.v1.fhir.ExportResourcesResponse'
REST
Verwenden Sie die Methode projects.locations.datasets.fhirStores.export
, um FHIR-Ressourcen nach BigQuery zu exportieren.
Exportieren Sie die FHIR-Ressourcen:
Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts
- LOCATION ist der Standort des Datasets
- DATASET_ID: das übergeordnete Dataset des FHIR-Speichers
- FHIR_STORE_ID: die FHIR-Speicher-ID
- BIGQUERY_DATASET_ID: der Name des vorhandenen BigQuery-Datasets, in das Sie FHIR-Ressourcen exportieren
- SCHEMA_TYPE: ein Wert für
SchemaType
Verwenden Sie einen der folgenden Werte:ANALYTICS
: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die FelderParameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert.ANALYTICS_V2
. Ein Schema, dasANALYTICS
ähnelt und zusätzlich Folgendes unterstützt:- Erweiterungen mit mehreren Werten für dasselbe
url
- Enthaltene FHIR-Ressourcen
.ANALYTICS_V2
verwendet in der Zieltabelle mehr Speicherplatz alsANALYTICS
- Erweiterungen mit mehreren Werten für dasselbe
- WRITE_DISPOSITION: ein Wert für
WriteDisposition
Verwenden Sie einen der folgenden Werte:WRITE_EMPTY
. Exportieren Sie nur dann Daten, wenn die BigQuery-Zieltabellen leer sind.WRITE_TRUNCATE
. Löschen Sie alle vorhandenen Daten in den BigQuery-Tabellen, bevor Sie die FHIR-Ressourcen schreiben.WRITE_APPEND
. Hängen Sie Daten an die BigQuery-Zieltabellen an.
- FHIR_RESOURCE_TYPE: ein optionales Feld. Geben Sie einen oder mehrere durch Kommas getrennte FHIR-Ressourcentypen an, um nur FHIR-Ressourcen dieser Typen zu exportieren.
- SINCE_TIMESTAMP: ein optionales Feld. Geben Sie einen Wert im Format
YYYY-MM-DDThh:mm:ss.sss+zz:zz
an, um nur FHIR-Ressourcen zu exportieren, die nach einem bestimmten Zeitpunkt aktualisiert wurden. Geben Sie die Zeit bis auf die Sekunde an und fügen Sie eine Zeitzone hinzu. Zum Beispiel sind2015-02-07T13:28:17.239+02:00
und2017-01-01T00:00:00Z
gültige Zeiten.
JSON-Text anfordern:
{ "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", }, "writeDisposition": "WRITE_DISPOSITION" }, "_type": "FHIR_RESOURCE_TYPE", "_since": "SINCE_TIMESTAMP" }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:cat > request.json << 'EOF' { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", }, "writeDisposition": "WRITE_DISPOSITION" }, "_type": "FHIR_RESOURCE_TYPE", "_since": "SINCE_TIMESTAMP" } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:@' { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", }, "writeDisposition": "WRITE_DISPOSITION" }, "_type": "FHIR_RESOURCE_TYPE", "_since": "SINCE_TIMESTAMP" } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export" | Select-Object -Expand ContentAPIs Explorer
Kopieren Sie den Anfragetext und öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Fügen Sie den Anfragetext in dieses Tool ein, füllen Sie alle Pflichtfelder aus und klicken Sie auf Ausführen.
OPERATION_ID
. Sie benötigen diesen Wert im nächsten Schritt.Mit der Methode
projects.locations.datasets.operations.get
können Sie den Status des Vorgangs mit langer Ausführungszeit abrufen.Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID: die ID Ihres Google Cloud-Projekts
- DATASET_ID: die Dataset-ID
- LOCATION: der Standort des Datasets
- OPERATION_ID: die ID, die vom Vorgang mit langer Ausführungszeit zurückgegeben wurde
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand ContentAPIs Explorer
Öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Füllen Sie die Pflichtfelder aus und klicken Sie auf Ausführen.
"done": true
enthält, ist der lang andauernde Vorgang abgeschlossen.
FHIR-Ressourcen in partitionierte Tabellen exportieren
Zum Exportieren von FHIR-Ressourcen in nach BigQuery partitionierte Tabellen legen Sie die Aufzählung TimePartitioning
im Feld lastUpdatedPartitionConfig
Ihres FHIR-Speichers fest.
Die partitionierten Tabellen funktionieren wie nach Zeiteinheit partitionierte Tabellen von BigQuery.
Partitionierte Tabellen enthalten eine hinzugefügte Spalte mit dem Namen lastUpdated
. Diese ist ein Duplikat der Spalte meta.lastUpdated
, die aus dem Feld meta.lastUpdated
in einer FHIR-Ressource generiert wird. BigQuery verwendet die Spalte lastUpdated
, um Tabellen nach Stunde, Tag, Monat oder Jahr zu partitionieren.
Empfehlungen zum Festlegen des Detaillierungsgrads für die Partition finden Sie unter Tägliche, stündliche, monatliche oder jährliche Partitionierung auswählen.
Vorhandene nicht partitionierte BigQuery-Tabellen können nicht in partitionierte Tabellen konvertiert werden. Wenn Sie Änderungen an Patientenressourcen in eine nicht partitionierte Patients
-Tabelle exportieren und später einen neuen FHIR-Speicher mit Tabellenpartitionierung erstellen, die in dasselbe BigQuery-Dataset exportiert, exportiert die Cloud Healthcare API weiterhin Daten in die nicht partitionierte Patients
-Tabelle. Wenn Sie eine partitionierte Tabelle verwenden möchten, löschen Sie die vorhandene Patients
-Tabelle oder verwenden Sie ein anderes BigQuery-Dataset.
Wenn Sie eine Partitionierung zu einer vorhandenen FHIR-Speicherkonfiguration hinzufügen, können Sie weiterhin in vorhandene nicht partitionierte Tabellen exportieren. Die Partitionierung wird jedoch nur bei neuen Tabellen wirksam.
Die folgenden Beispiele zeigen, wie FHIR-Ressourcen in partitionierte BigQuery-Tabellen exportiert werden.
Console
Die Google Cloud Console und die gcloud CLI unterstützen diese Aktion nicht. Verwenden Sie stattdessen curl
, PowerShell oder Ihre bevorzugte Sprache.
gcloud
Die Google Cloud Console und die gcloud CLI unterstützen diese Aktion nicht. Verwenden Sie stattdessen curl
, PowerShell oder Ihre bevorzugte Sprache.
REST
Verwenden Sie die Methode projects.locations.datasets.fhirStores.export
, um FHIR-Ressourcen in partitionierte BigQuery-Tabellen zu exportieren.
Exportieren Sie die FHIR-Ressourcen:
Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts
- LOCATION ist der Standort des Datasets
- DATASET_ID: das übergeordnete Dataset des FHIR-Speichers
- FHIR_STORE_ID: die FHIR-Speicher-ID
- BIGQUERY_DATASET_ID: der Name des vorhandenen BigQuery-Datasets, in das Sie FHIR-Ressourcen exportieren
- SCHEMA_TYPE: ein Wert für
SchemaType
Verwenden Sie einen der folgenden Werte:ANALYTICS
: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die FelderParameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert.ANALYTICS_V2
. Ein Schema, dasANALYTICS
ähnelt und zusätzlich Folgendes unterstützt:- Erweiterungen mit mehreren Werten für dasselbe
url
- Enthaltene FHIR-Ressourcen
.ANALYTICS_V2
verwendet in der Zieltabelle mehr Speicherplatz alsANALYTICS
- Erweiterungen mit mehreren Werten für dasselbe
- TIME_PARTITION_TYPE: der Detaillierungsgrad, mit dem exportierte FHIR-Ressourcen partitioniert werden sollen. Verwenden Sie einen der folgenden Werte:
HOUR
: Daten nach Stunde partitionierenDAY
: Daten nach Tag partitionierenMONTH
: Daten nach Monat partitionierenYEAR
: Daten nach Jahr partitionieren
- WRITE_DISPOSITION: ein Wert für
WriteDisposition
Verwenden Sie einen der folgenden Werte:WRITE_EMPTY
: Daten nur exportieren, wenn die BigQuery-Tabelle leer ist.WRITE_TRUNCATE
: Alle vorhandenen Daten in der BigQuery-Tabelle werden gelöscht, bevor die DICOM-Instanzen geschrieben werden.WRITE_APPEND
: Damit werden Daten an die BigQuery-Tabelle angehängt.
JSON-Text anfordern:
{ "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", "lastUpdatedPartitionConfig": { "type": "TIME_PARTITION_TYPE" } }, "writeDisposition": "WRITE_DISPOSITION" } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:cat > request.json << 'EOF' { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", "lastUpdatedPartitionConfig": { "type": "TIME_PARTITION_TYPE" } }, "writeDisposition": "WRITE_DISPOSITION" } } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:@' { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", "lastUpdatedPartitionConfig": { "type": "TIME_PARTITION_TYPE" } }, "writeDisposition": "WRITE_DISPOSITION" } } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID:export" | Select-Object -Expand ContentAPIs Explorer
Kopieren Sie den Anfragetext und öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Fügen Sie den Anfragetext in dieses Tool ein, füllen Sie alle Pflichtfelder aus und klicken Sie auf Ausführen.
Sie sollten in etwa folgende JSON-Antwort erhalten:
Mit der Methode
projects.locations.datasets.operations.get
können Sie den Status des Vorgangs mit langer Ausführungszeit abrufen.Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID: die ID Ihres Google Cloud-Projekts
- DATASET_ID: die Dataset-ID
- LOCATION: der Standort des Datasets
- OPERATION_ID: die ID, die vom Vorgang mit langer Ausführungszeit zurückgegeben wurde
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand ContentAPIs Explorer
Öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Füllen Sie die Pflichtfelder aus und klicken Sie auf Ausführen.
"done": true
enthält, ist der lang andauernde Vorgang abgeschlossen.
Partitionierte Tabelle abfragen
Sie können die Abfragekosten beim Abfragen von partitionierten Tabellen reduzieren, indem Sie die Klausel WHERE
verwenden, um nach Zeiteinheiten zu filtern.
Angenommen, Sie legen die Aufzählung PartitionType
auf DAY
fest.
Führen Sie die folgende Abfrage aus, um eine Patients
-Tabelle für Patientenressourcen abzufragen, die an einem bestimmten Datum aktualisiert wurden:
SELECT * FROM `PROJECT_ID.BIGQUERY_DATASET.Patients` WHERE DATE(lastUpdated) = 'YYYY-MM-DD'
FHIR-Daten in BigQuery abfragen und analysieren
Nach dem Export der FHIR-Ressourcen nach BigQuery finden Sie unter FHIR-Daten in BigQuery analysieren Informationen zum Abfragen und Analysieren der exportierten Daten. Die Lösung verwendet das öffentliche Dataset von SyntheaTM-generierten synthetischen Daten in FHIR, das über 1 Million synthetische Patientendatensätze in den Formaten SyntheaTM und FHIR hostet.
Fehlerbehebung bei FHIR-Exportanfragen
Wenn während einer FHIR-Exportanfrage Fehler auftreten, werden die Fehler in Cloud Logging protokolliert. Weitere Informationen finden Sie unter Fehlerlogs in Cloud Logging ansehen.
Wenn der gesamte Vorgang einen Fehler zurückgibt, finden Sie weitere Informationen unter Fehlerbehebung bei Vorgängen mit langer Ausführungszeit.
Spalte kann nicht von NULLABLE in REPEATED konvertiert werden
Dieser Fehler wird durch eine wiederholte Erweiterung verursacht. Verwenden Sie den Schematyp ANALYTICS_V2
, um diesen Fehler zu beheben. Wenn Sie ANALYTICS_V2
bereits verwenden, besteht möglicherweise ein Konflikt zwischen zwei Erweiterungen oder ein Konflikt zwischen einer Erweiterung und einem anderen Feld.
Spaltennamen werden aus dem Text nach dem letzten /
-Zeichen in Erweiterungs-URLs generiert. Wenn eine Erweiterungs-URL mit einem Wert wie /resource_field name
endet, kann ein Konflikt auftreten.
Damit dieser Fehler nicht noch einmal auftritt, verwenden Sie keine Erweiterungen, deren Feldnamen mit den Ressourcenfeldern übereinstimmen, die Sie ausfüllen.
Nächste Schritte
- Weitere Informationen zu Data Governance und Sicherheit in BigQuery finden Sie unter Übersicht: Datensicherheit und Governance.