Auf dieser Seite wird erläutert, wie Sie einen FHIR-Speicher so konfigurieren, dass FHIR-Ressourcen jedes Mal automatisch in BigQuery-Tabellen exportiert werden, wenn eine FHIR-Ressource erstellt, aktualisiert, gepatcht oder gelöscht wird. Dieser Vorgang wird als BigQuery-Streaming bezeichnet.
Mit BigQuery-Streaming können Sie Folgendes tun:
- Synchronisieren Sie die Daten in einem FHIR-Speicher nahezu in Echtzeit mit einem BigQuery-Dataset.
- Sie können komplexe Abfragen für FHIR-Daten ausführen, ohne sie jedes Mal nach BigQuery exportieren zu müssen, wenn Sie die Daten analysieren möchten.
Sie können BigQuery-Streaming für partitionierte Tabellen konfigurieren, um die Abfrageleistung zu verbessern und die Kosten zu senken. Eine Anleitung finden Sie unter FHIR-Ressourcen in partitionierte Tabellen streamen.
Hinweise
Informationen zur Funktionsweise des Exports finden Sie unter FHIR-Ressourcen nach BigQuery exportieren.
Beschränkungen
Wenn Sie FHIR-Ressourcen aus Cloud Storage importieren, werden die Änderungen nicht in BigQuery gestreamt.
BigQuery-Berechtigungen festlegen
Zum Aktivieren des BigQuery-Streamings müssen Sie dem Dienstkonto Cloud Healthcare Service Agent zusätzliche Berechtigungen erteilen. Weitere Informationen finden Sie unter BigQuery-Berechtigungen für FHIR-Speicher.
BigQuery-Streaming in einem FHIR-Speicher konfigurieren
Konfigurieren Sie das Objekt StreamConfigs
in Ihrem FHIR-Speicher, um das BigQuery-Streaming zu aktivieren. In StreamConfigs
können Sie das Array resourceTypes[]
konfigurieren, um zu steuern, für welche Arten von FHIR-Ressourcen das BigQuery-Streaming gilt. Wenn Sie resourceTypes[]
nicht angeben, gilt das BigQuery-Streaming für alle FHIR-Ressourcentypen.
Erläuterungen zu anderen in StreamConfigs
verfügbaren Konfigurationen, z. B. BigQueryDestination
, finden Sie unter FHIR-Ressourcen exportieren.
In den folgenden Beispielen wird gezeigt, wie Sie BigQuery-Streaming in einem vorhandenen FHIR-Speicher aktivieren.
Console
Führen Sie die folgenden Schritte aus, um BigQuery-Streaming in einem vorhandenen FHIR-Speicher mithilfe der Google Cloud Console zu konfigurieren:
Rufen Sie in der Google Cloud Console die Seite Datasets auf.
Wählen Sie das Dataset mit dem FHIR-Speicher aus, den Sie bearbeiten möchten.
Klicken Sie in der Liste Datenspeicher auf den FHIR-Speicher, den Sie bearbeiten möchten.
Führen Sie im Abschnitt BigQuery-Streaming die folgenden Schritte aus:
- Klicken Sie auf Neue Streamingkonfiguration hinzufügen.
- Klicken Sie im Abschnitt Neue Streamingkonfiguration auf Durchsuchen, um das BigQuery-Dataset auszuwählen, in das geänderte FHIR-Ressourcen gestreamt werden sollen.
- Wählen Sie im Drop-down-Menü Schematyp das Ausgabeschema für die BigQuery-Tabelle aus. Folgende Schemas sind verfügbar:
- Analytics: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die Felder
Parameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert. - Analytics Version 2: Ein Schema, das dem Analytics-Schema ähnelt, aber zusätzlich Folgendes unterstützt:
- Erweiterungen mit mehreren Werten für dasselbe
url
- Enthaltene FHIR-Ressourcen
- Erweiterungen mit mehreren Werten für dasselbe
- Analytics: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die Felder
- Wählen Sie mit dem Schieberegler Rekursive Strukturtiefe eine Tiefenebene aus, um die Tiefe für alle rekursiven Strukturen im Ausgabeschema festzulegen. Standardmäßig ist der rekursive Wert 2.
- Wählen Sie in der Liste FHIR-Ressourcentypen auswählen die zu streamenden Ressourcentypen aus.
Klicken Sie auf Fertig, um die Streamingkonfiguration zu speichern.
gcloud
Die gcloud CLI unterstützt diese Aktion nicht. Verwenden Sie stattdessen die Google Cloud Console, curl
, PowerShell oder Ihre bevorzugte Sprache.
REST
Verwenden Sie die Methode projects.locations.datasets.fhirStores.patch
, um BigQuery-Streaming in einem vorhandenen FHIR-Speicher zu konfigurieren.
In den folgenden Beispielen wird das Array resourceTypes[]
nicht angegeben, sodass das BigQuery-Streaming für alle FHIR-Ressourcentypen aktiviert ist.
Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts
- LOCATION ist der Standort des Datasets
- DATASET_ID: das übergeordnete Dataset des FHIR-Speichers
- FHIR_STORE_ID: die FHIR-Speicher-ID
- BIGQUERY_DATASET_ID: der Name eines vorhandenen BigQuery-Datasets, in dem Sie FHIR-Ressourcenänderungen streamen
- SCHEMA_TYPE: ein Wert für die Aufzählung
SchemaType
. Verwenden Sie einen der folgenden Werte:ANALYTICS
: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die FelderParameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert.ANALYTICS_V2
. Ein Schema, dasANALYTICS
ähnelt und zusätzlich Folgendes unterstützt:- Erweiterungen mit mehreren Werten für dasselbe
url
- Enthaltene FHIR-Ressourcen
.ANALYTICS_V2
verwendet in der Zieltabelle mehr Speicherplatz alsANALYTICS
- Erweiterungen mit mehreren Werten für dasselbe
- WRITE_DISPOSITION: ein Wert für die Aufzählung
WriteDisposition
. Verwenden Sie einen der folgenden Werte:WRITE_EMPTY
. Exportieren Sie nur dann Daten, wenn die BigQuery-Zieltabellen leer sind.WRITE_TRUNCATE
. Löschen Sie alle vorhandenen Daten in den BigQuery-Tabellen, bevor Sie die FHIR-Ressourcen schreiben.WRITE_APPEND
. Hängen Sie Daten an die BigQuery-Zieltabellen an.
JSON-Text anfordern:
{ "streamConfigs": [ { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", }, "writeDisposition": "WRITE_DISPOSITION" } } ] }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
.
Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:
cat > request.json << 'EOF' { "streamConfigs": [ { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", }, "writeDisposition": "WRITE_DISPOSITION" } } ] } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X PATCH \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID?updateMask=streamConfigs"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
.
Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:
@' { "streamConfigs": [ { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", }, "writeDisposition": "WRITE_DISPOSITION" } } ] } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method PATCH `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID?updateMask=streamConfigs" | Select-Object -Expand Content
APIs Explorer
Kopieren Sie den Anfragetext und öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Fügen Sie den Anfragetext in dieses Tool ein, füllen Sie alle Pflichtfelder aus und klicken Sie auf Ausführen.
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Wenn Sie in der Ressource FhirStore
Felder konfiguriert haben, werden diese auch in der Antwort angezeigt.
Wenn Sie FHIR-Ressourcenänderungen in BigQuery streamen, wird standardmäßig für jede gestreamte Ressource eine Ansicht erstellt. Die Ansicht hat folgende Attribute:
- Sie hat denselben Namen wie die Ressource und die Tabelle der Ressource im BigQuery-Dataset. Wenn Sie beispielsweise eine Patientenressource streamen, wird eine Tabelle namens
Patient
mit einer Ansicht namensPatientview
erstellt. - Sie enthält nur die aktuelle Version der Ressource und nicht alle bisherigen Versionen.
FHIR-Ressourcen in partitionierte Tabellen streamen
Zum Exportieren von FHIR-Ressourcen in nach BigQuery partitionierte Tabellen legen Sie die Aufzählung TimePartitioning
im Feld lastUpdatedPartitionConfig
Ihres FHIR-Speichers fest.
Die partitionierten Tabellen funktionieren wie nach Zeiteinheit partitionierte Tabellen von BigQuery.
Partitionierte Tabellen enthalten eine hinzugefügte Spalte mit dem Namen lastUpdated
. Diese ist ein Duplikat der Spalte meta.lastUpdated
, die aus dem Feld meta.lastUpdated
in einer FHIR-Ressource generiert wird. BigQuery verwendet die Spalte lastUpdated
, um Tabellen nach Stunde, Tag, Monat oder Jahr zu partitionieren.
Empfehlungen zum Festlegen des Detaillierungsgrads für die Partition finden Sie unter Tägliche, stündliche, monatliche oder jährliche Partitionierung auswählen.
Vorhandene nicht partitionierte BigQuery-Tabellen können nicht in partitionierte Tabellen konvertiert werden. Wenn Sie Änderungen an Patientenressourcen in eine nicht partitionierte Patients
-Tabelle exportieren und später einen neuen FHIR-Speicher mit Tabellenpartitionierung erstellen, die in dasselbe BigQuery-Dataset exportiert, exportiert die Cloud Healthcare API weiterhin Daten in die nicht partitionierte Patients
-Tabelle. Wenn Sie eine partitionierte Tabelle verwenden möchten, löschen Sie die vorhandene Patients
-Tabelle oder verwenden Sie ein anderes BigQuery-Dataset.
Wenn Sie eine Partitionierung zu einer vorhandenen FHIR-Speicherkonfiguration hinzufügen, können Sie weiterhin in vorhandene nicht partitionierte Tabellen exportieren. Die Partitionierung wird jedoch nur bei neuen Tabellen wirksam.
In den folgenden Beispielen wird gezeigt, wie Sie das BigQuery-Streaming in partitionierte Tabellen in einem vorhandenen FHIR-Speicher aktivieren.
Console
Die Google Cloud Console und die gcloud CLI unterstützen diese Aktion nicht. Verwenden Sie stattdessen curl
, PowerShell oder Ihre bevorzugte Sprache.
gcloud
Die Google Cloud Console und die gcloud CLI unterstützen diese Aktion nicht. Verwenden Sie stattdessen curl
, PowerShell oder Ihre bevorzugte Sprache.
REST
Verwenden Sie die Methode projects.locations.datasets.fhirStores.patch
, um BigQuery-Streaming in partitionierte Tabellen in einem vorhandenen FHIR-Speicher zu konfigurieren.
Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts
- LOCATION ist der Standort des Datasets
- DATASET_ID: das übergeordnete Dataset des FHIR-Speichers
- FHIR_STORE_ID: die FHIR-Speicher-ID
- BIGQUERY_DATASET_ID: der Name eines vorhandenen BigQuery-Datasets, in dem Sie FHIR-Ressourcenänderungen streamen
- SCHEMA_TYPE: ein Wert für die Aufzählung
SchemaType
. Verwenden Sie einen der folgenden Werte:ANALYTICS
: Ein Schema, das auf dem Dokument SQL on FHIR basiert. Da BigQuery nur 10.000 Spalten pro Tabelle zulässt, werden keine Schemas für die FelderParameters.parameter.resource
,Bundle.entry.resource
undBundle.entry.response.outcome
generiert.ANALYTICS_V2
. Ein Schema, dasANALYTICS
ähnelt und zusätzlich Folgendes unterstützt:- Erweiterungen mit mehreren Werten für dasselbe
url
- Enthaltene FHIR-Ressourcen
.ANALYTICS_V2
verwendet in der Zieltabelle mehr Speicherplatz alsANALYTICS
- Erweiterungen mit mehreren Werten für dasselbe
- TIME_PARTITION_TYPE: der Detaillierungsgrad, mit dem exportierte FHIR-Ressourcen partitioniert werden sollen. Verwenden Sie einen der folgenden Werte:
HOUR
: Daten nach Stunde partitionierenDAY
: Daten nach Tag partitionierenMONTH
: Daten nach Monat partitionierenYEAR
: Daten nach Jahr partitionieren
- WRITE_DISPOSITION: ein Wert für die Aufzählung
WriteDisposition
. Verwenden Sie einen der folgenden Werte:WRITE_EMPTY
. Exportieren Sie nur dann Daten, wenn die BigQuery-Zieltabellen leer sind.WRITE_TRUNCATE
. Löschen Sie alle vorhandenen Daten in den BigQuery-Tabellen, bevor Sie die FHIR-Ressourcen schreiben.WRITE_APPEND
. Hängen Sie Daten an die BigQuery-Zieltabellen an.
JSON-Text anfordern:
{ "streamConfigs": [ { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", "lastUpdatedPartitionConfig": { "type": "TIME_PARTITION_TYPE" } }, "writeDisposition": "WRITE_DISPOSITION" } } ] }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
.
Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:
cat > request.json << 'EOF' { "streamConfigs": [ { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", "lastUpdatedPartitionConfig": { "type": "TIME_PARTITION_TYPE" } }, "writeDisposition": "WRITE_DISPOSITION" } } ] } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X PATCH \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID?updateMask=streamConfigs"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
.
Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:
@' { "streamConfigs": [ { "bigqueryDestination": { "datasetUri": "bq://PROJECT_ID.BIGQUERY_DATASET_ID", "schemaConfig": { "schemaType": "SCHEMA_TYPE", "lastUpdatedPartitionConfig": { "type": "TIME_PARTITION_TYPE" } }, "writeDisposition": "WRITE_DISPOSITION" } } ] } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method PATCH `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID?updateMask=streamConfigs" | Select-Object -Expand Content
APIs Explorer
Kopieren Sie den Anfragetext und öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Fügen Sie den Anfragetext in dieses Tool ein, füllen Sie alle Pflichtfelder aus und klicken Sie auf Ausführen.
Sie sollten in etwa folgende JSON-Antwort erhalten:
Partitionierte Tabelle abfragen
Sie können die Abfragekosten beim Abfragen von partitionierten Tabellen reduzieren, indem Sie die Klausel WHERE
verwenden, um nach Zeiteinheiten zu filtern.
Angenommen, Sie legen die Aufzählung PartitionType
auf DAY
fest.
Führen Sie die folgende Abfrage aus, um eine Patients
-Tabelle nach Patientenressourcen abzufragen, die sich an einem bestimmten Datum geändert haben:
SELECT * FROM `PROJECT_ID.BIGQUERY_DATASET.Patients` WHERE DATE(lastUpdated) = 'YYYY-MM-DD'
Von Analytics zu Analytics V2 migrieren
Es ist nicht möglich, ein vorhandenes BigQuery-Dataset mit einer der folgenden Methoden vom Schema Analytics
zum Schema Analytics V2
zu migrieren:
- Schematyp der Tabelle in BigQuery ändern
- Schematyp in einer vorhandenen FHIR-Streamingkonfiguration ändern
Das liegt daran, dass der Modus der BigQuery-Tabellenspalten für FHIR-Erweiterungen im Analytics
-Schema auf NULLABLE
festgelegt ist, während für die Spalten im Analytics V2
-Schema REPEATED
festgelegt ist. In BigQuery kann der Modus einer Spalte nicht von NULLABLE
in REPEATED
geändert werden.
Daher sind die beiden Schematypen nicht kompatibel.
Wenn Sie den Schematyp der exportierten FHIR-Ressourcen von Analytics
nach Analytics V2
migrieren möchten, müssen Sie die FHIR-Ressourcen mithilfe einer neuen Streamingkonfiguration mit dem aktualisierten Schematyp in ein neues BigQuery-Dataset exportieren. Führen Sie dazu die folgenden Schritte aus:
Fügen Sie dem FHIR-Speicher eine neue Streamingkonfiguration hinzu, wobei der Schematyp auf
Analytics V2
festgelegt ist.Backfill für vorhandene Daten durch Exportieren der vorhandenen FHIR-Daten mit den folgenden Einstellungen. Eine Anleitung zum Konfigurieren dieser Einstellungen mit der Google Cloud Console, der Google Cloud CLI oder der REST API finden Sie unter FHIR-Ressourcen exportieren. Die folgenden Einstellungen gelten für die REST API:
- Legen Sie
WriteDisposition
aufWRITE_APPEND
fest, um die Daten an die Zieltabelle anzuhängen. - Setzen Sie
SchemaType
aufANALYTICS_V2
.
- Legen Sie
Die Ansichten in BigQuery, die einigen oder allen FHIR-Ressourcen im ursprünglichen BigQuery-Dataset entsprechen, fehlen möglicherweise in Ihrem neuen Dataset. Informationen zur Fehlerbehebung finden Sie unter Fehlende Erstellung der FHIR-Ressourcenansicht.
Fehlerbehebung beim FHIR-Streaming
Wenn Fehler beim Senden von Ressourcenänderungen an BigQuery auftreten, werden diese in Cloud Logging protokolliert. Weitere Informationen finden Sie unter Fehlerlogs in Cloud Logging ansehen.
Spalte kann nicht von NULLABLE in REPEATED konvertiert werden
Dieser Fehler wird durch eine wiederholte Erweiterung verursacht. Verwenden Sie den Schematyp ANALYTICS_V2
, um diesen Fehler zu beheben. Wenn Sie ANALYTICS_V2
bereits verwenden, besteht möglicherweise ein Konflikt zwischen zwei Erweiterungen oder ein Konflikt zwischen einer Erweiterung und einem anderen Feld.
Spaltennamen werden aus dem Text nach dem letzten /
-Zeichen in Erweiterungs-URLs generiert. Wenn eine Erweiterungs-URL mit einem Wert wie /resource_field name
endet, kann ein Konflikt auftreten.
Damit dieser Fehler nicht noch einmal auftritt, verwenden Sie keine Erweiterungen, deren Feldnamen mit den Ressourcenfeldern übereinstimmen, die Sie ausfüllen.
Erstellung der FHIR-Ressourcenansicht fehlt
Wenn Sie einen Bulk-Export von einer FHIR-Ressource an BigQuery ausführen, bevor diese FHIR-Ressource gestreamt wird, erstellt BigQuery keine Ansichten für die FHIR-Ressource.
In der folgenden Situation werden beispielsweise keine Ansichten für Ressourcen vom Typ „Encounter” angezeigt:
Sie konfigurieren das BigQuery-Streaming in einem FHIR-Speicher und verwenden dann die REST API, um eine Patientenressource zu erstellen.
BigQuery erstellt eine Tabelle und eine Ansicht für die Patientenressource.
Sie führen einen Bulk-Export aus Encounter-Ressourcen in dasselbe BigQuery-Dataset wie im vorherigen Schritt aus.
BigQuery erstellt eine Tabelle für die Ressourcen des Typs „Encounter”.
Sie verwenden die REST API, um eine Ressource vom Typ „Encounter” zu erstellen.
Nach diesem Schritt werden BigQuery-Ansichten nicht mehr für die Encounter-Ressource erstellt.
Verwenden Sie folgende Abfrage zum Erstellen einer Ansicht, um dieses Problem zu beheben:
SELECT * EXCEPT (_resource_row_id) FROM ( SELECT ROW_NUMBER() OVER(PARTITION BY id ORDER BY meta.lastUpdated DESC) as _resource_row_id, * FROM `PROJECT_ID.BIGQUERY_DATASET_ID.RESOURCE_TABLE` AS p ) AS p WHERE p._resource_row_id=1 AND NOT EXISTS ( SELECT * FROM UNNEST(p.meta.tag) WHERE code = 'DELETE');
Ersetzen Sie Folgendes:
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts
- BIGQUERY_DATASET_ID ist die ID des BigQuery-Datasets, in das Sie eine FHIR-Ressource per Bulk exportiert haben
- RESOURCE_TABLE ist der Name der Tabelle, die der FHIR-Ressource entspricht, für die Sie Ansichten erstellen möchten
Nachdem Sie die Ansicht erstellt haben, können Sie weiter Änderungen an die FHIR-Ressource streamen. Die Ansicht wird entsprechend aktualisiert.
Nächste Schritte
Eine Anleitung zu einem Anwendungsfall für das Streaming von FHIR-Ressourcenänderungen finden Sie unter FHIR-Ressourcen mit BigQuery streamen und synchronisieren.