Auf dieser Seite wird beschrieben, wie Sie DICOM-Daten in der Cloud Healthcare API verwalten mit unterschiedlichen Speicherklassen. Die Auswahl der richtigen Speicherklasse kann helfen, senken Sie die Kosten und erfüllen die gesetzlichen Vorschriften für die Datenaufbewahrung.
Diese Seite ist für technische Benutzer gedacht, die bereits mit DICOM vertraut sind und der Cloud Healthcare API.
Übersicht
DICOM-Speicherklassen funktionieren ähnlich wie Cloud Storage-Speicherklassen. mit unterschiedlichen Kosten- und Leistungsmerkmalen je nachdem, wie lange Sie auf Ihre Daten zugreifen müssen. Weitere Informationen zu den einzelnen Speicherklassen finden Sie unter Beschreibungen der Speicherklassen.
Sie können die Speicherklasse von DICOM-Objekten ändern, je nachdem, wie oft Sie auf das Objekt zugreifen oder wie lange es aufbewahrt werden muss. Beispiel:
- Sie können selten aufgerufene DICOM-Images von Standard Storage in Nearline oder Coldline-Speicher, um Abrechnungskosten zu sparen
- Patientendaten, die aus rechtlichen Gründen aufbewahrt werden müssen, können Sie in den Archivspeicher verschieben. die günstigste und langlebigste Speicherklasse.
Verfügbare DICOM-Speicherklassen
Sie können die folgenden Speicherklassen für Ihre DICOM-Objekte verwenden:
- Standardeinstellung
- Nearline
- Coldline
- Archivieren
Preise für Speicherklassen
Jede Speicherklasse hat eine eigene Preisstruktur. Das Ändern der Speicherklasse Ihrer DICOM-Objekte kann sich auf Ihre Abrechnungskosten auswirken. Hier finden Sie weitere Informationen:
Speicherklasse für einzelne DICOM-Objekte ändern
Sie können die Speicherklasse von DICOM-Objekten in der Studie, Serie oder Instanzebene.
Die folgenden Beispiele zeigen, wie Sie die Speicherklasse einer DICOM-Instanz ändern.
REST
Ändern Sie die Speicherklasse der DICOM-Instanz mithilfe der Methode
projects.locations.datasets.dicomStores.studies.series.instances.setBlobStorageSettings
-Methode.Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsLOCATION
ist der Standort des DatasetsDATASET_ID
ist das übergeordnete Dataset des DICOM-SpeichersDICOM_STORE_ID
: die ID des DICOM-SpeichersSTUDY_INSTANCE_UID
: die eindeutige Kennung der StudieninstanzSERIES_INSTANCE_UID
: die eindeutige Kennung der ReiheninstanzINSTANCE_UID
: die eindeutige InstanzkennzeichnungSTORAGE_CLASS
: die Speicherklasse für die DICOM-Instanz. EntwederSTANDARD
,NEARLINE
,COLDLINE
oderARCHIVE
.
JSON-Text der Anfrage:
{ "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:cat > request.json << 'EOF' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" } } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:setBlobStorageSettings"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:@' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" } } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:setBlobStorageSettings" | Select-Object -Expand ContentAPIs Explorer
Kopieren Sie den Anfragetext und öffnen Sie die Referenzseite für Methoden. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Fügen Sie den Anfragetext in dieses Tool ein, füllen Sie alle Pflichtfelder aus und klicken Sie auf Ausführen.
OPERATION_ID
. Sie benötigen diesen Wert im nächsten Schritt.Rufen Sie den Status des lang andauernden Vorgangs mit der Methode
projects.locations.datasets.operations.get
ab.Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsLOCATION
ist der Standort des DatasetsDATASET_ID
: das übergeordnete Dataset des DICOM-SpeichersOPERATION_ID
ist die ID, die vom lang andauernden Vorgang zurückgegeben wurde
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand Content"done": true
enthält, wird der LRO ist abgeschlossen.
Speicherklasse für mehrere Objekte mithilfe einer Filterdatei ändern
In den folgenden Abschnitten wird gezeigt, wie Sie eine Filterdatei erstellen und verwenden, um die Speicherklasse von DICOM-Objekten basierend auf Filterkriterien zu ändern.
Dateianforderungen filtern
- Jede Zeile in der Filterdatei definiert die Studie, Serie oder Instanz
verwendet das Format
/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID
. - Sie können eine Zeile abschneiden, um die Ebene anzugeben, auf der der Filter angewendet werden soll.
Sie können beispielsweise eine ganze Studie auswählen, indem Sie
/studies/STUDY_INSTANCE_UID
, oder Sie können ein ganze Reihe angeben, indem Sie/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID
.
Betrachten Sie die folgende Filterdatei:
/studies/1.123.456.789 /studies/1.666.333.111/series/123.456 /studies/1.666.333.111/series/567.890 /studies/1.888.999.222/series/123.456/instances/111 /studies/1.888.999.222/series/123.456/instances/222 /studies/1.888.999.222/series/123.456/instances/333
Diese Beispielfilterdatei gilt für Folgendes:
- Die gesamte Studie mit der Studieninstanz-UID als
1.123.456.789
- Zwei separate Reihen mit Serieninstanz-UIDs als
123.456
und567.890
in der Studie1.666.333.111
- Drei einzelne Instanzen mit den Instanz-IDs
111
,222
und333
in der Studium1.888.999.222
und Reihe123.456
Filterdatei mit BigQuery erstellen
Um eine Filterdatei mit BigQuery zu erstellen, Die Metadaten Ihres DICOM-Speichers nach BigQuery exportieren Die exportierten Metadaten zeigt Ihnen die Studien-, Serien- und Instanz-UIDs der DICOM-Daten in Ihrem DICOM speichern.
Führe nach dem Exportieren der Metadaten die folgenden Schritte aus:
Führen Sie eine Abfrage aus, um die UIDs der Studie, der Reihen und der Instanzen zurückzugeben die Sie der Filterdatei hinzufügen möchten.
Die folgende Abfrage zeigt beispielsweise, wie Studie, Reihe und Instanz-UIDs, die den Anforderungen an das Filterdateiformat entsprechen:
SELECT CONCAT ('/studies/', StudyInstanceUID, '/series/', SeriesInstanceUID, '/instances/', SOPInstanceUID) FROM [PROJECT_ID:BIGQUERY_DATASET.BIGQUERY_TABLE]
Optional: Wenn die Abfrage eine große Ergebnismenge zurückgibt, die die Maximale Antwortgröße Abfrageergebnisse in einer neuen Zieltabelle speichern in BigQuery.
Speichern Sie die Abfrageergebnisse in einer Datei und exportieren Sie sie nach Cloud Storage. Wenn Sie Ihre Abfrageergebnisse in eine neue Zieltabelle in Schritt 2 einfügen, Tabellendaten exportieren, um die in Cloud Storage übertragen.
Bearbeiten Sie die exportierte Datei nach Bedarf und fügen Sie sie Ihrer Anfrage hinzu. die Speicherklasse mehrerer DICOM-Objekte ändern.
Filterdatei manuell erstellen
So erstellen Sie eine Filterdatei manuell:
- Erstellen Sie eine Filterdatei mit den DICOM-Objekten, nach denen Sie filtern.
- Laden Sie die Filterdatei in Cloud Storage hoch. Anweisungen finden Sie unter Objekte aus einem Dateisystem hochladen
Filterdatei verwenden
Die folgenden Beispiele zeigen, wie Sie eine Filterdatei anwenden, wenn Sie die Speicherklasse von DICOM-Objekten.
REST
Ändern Sie die Speicherklasse der DICOM-Instanzen in der Filterdatei mithilfe der
projects.locations.datasets.dicomStores.studies.series.instances.setBlobStorageSettings
-Methode.Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsLOCATION
ist der Standort des DatasetsDATASET_ID
ist das übergeordnete Dataset des DICOM-SpeichersDICOM_STORE_ID
: die ID des DICOM-SpeichersSTORAGE_CLASS
: die Speicherklasse für die DICOM-Objekte. EntwederSTANDARD
,NEARLINE
,COLDLINE
oderARCHIVE
.CLOUD_STORAGE_BUCKET
: der Name des Cloud Storage-Bucket, der die Filterdatei enthältFILTER_FILE_PATH
: der voll qualifizierte URI zur Filterdatei im Cloud Storage-Bucket
JSON-Text der Anfrage:
{ "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" }, "filterConfig": { "resourcePathsGcsUri": "gs://CLOUD_STORAGE_BUCKET/FILTER_FILE_PATH" } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:cat > request.json << 'EOF' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" }, "filterConfig": { "resourcePathsGcsUri": "gs://CLOUD_STORAGE_BUCKET/FILTER_FILE_PATH" } } EOF
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID:setBlobStorageSettings"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
. Führen Sie folgenden Befehl im Terminal aus, um diese Datei im aktuellen Verzeichnis zu erstellen oder zu überschreiben:@' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" }, "filterConfig": { "resourcePathsGcsUri": "gs://CLOUD_STORAGE_BUCKET/FILTER_FILE_PATH" } } '@ | Out-File -FilePath request.json -Encoding utf8
Führen Sie dann folgenden Befehl aus, um Ihre REST-Anfrage zu senden:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID:setBlobStorageSettings" | Select-Object -Expand ContentOPERATION_ID
. Sie benötigen diesen Wert im nächsten Schritt.Rufen Sie den Status des lang andauernden Vorgangs mit der Methode
projects.locations.datasets.operations.get
ab.Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsLOCATION
ist der Standort des DatasetsDATASET_ID
: das übergeordnete Dataset des DICOM-SpeichersOPERATION_ID
ist die ID, die vom lang andauernden Vorgang zurückgegeben wurde
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand Content"done": true
enthält, wird der LRO ist abgeschlossen.
Speicherklasse eines DICOM-Objekts ansehen
Sie können die Speicherklasse von DICOM-Objekten auf Studien-, Serien- oder Instanzebene aufrufen.
In den folgenden Abschnitten wird beschrieben, wie Sie die Speicherklasse einer DICOM-Instanz aufrufen.
Informationen zur Speicherklasse für ein DICOM-Objekt abrufen
Die folgenden Beispiele zeigen, wie Sie
instances.getStorageInfo
, um die Speicherklasse von DICOM-Objekten anzuzeigen.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsLOCATION
ist der Standort des DatasetsDATASET_ID
ist das übergeordnete Dataset des DICOM-SpeichersDICOM_STORE_ID
: die ID des DICOM-SpeichersSTUDY_INSTANCE_UID
: die eindeutige Kennung der StudieninstanzSERIES_INSTANCE_UID
: die eindeutige Kennung der SerieninstanzINSTANCE_UID
: die eindeutige Kennung der Instanz
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Führen Sie folgenden Befehl aus:
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:getStorageInfo"
PowerShell
Führen Sie folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:getStorageInfo" | Select-Object -Expand Content
APIs Explorer
Öffnen Sie die Methodenreferenzseite. Der API Explorer wird rechts auf der Seite geöffnet. Sie können mit diesem Tool interagieren, um Anfragen zu senden. Füllen Sie die Pflichtfelder aus und klicken Sie auf Ausführen.
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
Exportierte DICOM-Metadaten in BigQuery abfragen
Sie können DICOM-Metadaten nach BigQuery exportieren und dann Abfragen ausführen, um die Speicherklassen Ihrer exportierten DICOM-Objekte aufzurufen.
Die folgende Abfrage zeigt, wie die Studie abgerufen wird Instanz-UID, Serieninstanz-UID, Instanz-UID, Speichergröße und eine Speicherklasse von bis zu 1.000 DICOM-Instanzen aus einem BigQuery-Dataset:
SELECT StudyInstanceUID, SeriesInstanceUID, SOPInstanceUID, BlobStorageSize, StorageClass FROM PROJECT_ID:BIGQUERY_DATASET.BIGQUERY_TABLE LIMIT 1000
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsBIGQUERY_DATASET
: das übergeordnete BigQuery-Dataset der Tabelle, die die exportierten DICOM-Metadaten enthältBIGQUERY_TABLE
: die BigQuery-Tabelle mit den exportierten DICOM-Metadaten