Kurzanleitung für einen schnellen Start mit dem gcloud-Befehlszeilentool

Auf dieser Seite wird erläutert, wie Sie die Cloud Healthcare API mit dem gcloud-Befehlszeilentool verwenden, um die folgenden Aufgaben auszuführen:

  1. Cloud Healthcare API-Dataset erstellen
  2. Erstellen Sie im Dataset einen der folgenden Datenspeicher:
    • DICOM-Speicher (Digital Imaging and Communications in Medicine)
    • FHIR-Speicher (Fast Healthcare Interoperability Resources)
    • Health Level Seven International Version 2 (HL7v2) Store
  3. Speichern Sie DICOM-, FHIR- und HL7v2-Daten und rufen Sie DICOM-Metadaten auf.

Wenn Sie nur mit einem Datenspeichertyp arbeiten möchten, können Sie direkt zu diesem Abschnitt der Kurzanleitung gehen, nachdem Sie die Schritte unter Vorbereitung und Erstellen ein Dataset.

Hinweis

  1. Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für Ihr Projekt aktiviert ist.

  4. Aktivieren Sie die Cloud Healthcare API.

    Aktivieren Sie die API

  5. Führen Sie je nachdem, wie Sie das gcloud-Befehlszeilentool verwenden, einen der folgenden Schritte aus:
    • Wenn Sie Cloud Shell verwenden, rufen Sie die Google Cloud Console auf und klicken Sie oben im Konsolenfenster auf Cloud Shell aktivieren.

      Zur Google Cloud Console

      Im unteren Bereich der Konsole wird ein neuer Frame mit einer Cloud Shell-Sitzung und einer Befehlszeilen-Eingabeaufforderung geöffnet. Es kann einige Sekunden dauern, bis die Shell-Sitzung initialisiert ist.

    • Wenn Sie eine virtuelle Compute Engine-Maschine verwenden, öffnen Sie das Terminalfenster der virtuellen Maschine.
    • Wenn Sie das gcloud-Tool auf Ihrem Computer verwenden, installieren und initialisieren Sie das Cloud SDK.

Dataset erstellen

Datasets enthalten Datenspeicher und Datenspeicher enthalten Gesundheitsdaten. Um die Cloud Healthcare API verwenden zu können, müssen Sie mindestens ein Dataset erstellen.

Erstellen Sie mit dem Befehl gcloud healthcare datasets create ein Dataset:

gcloud healthcare datasets create DATASET_ID \
    --location=LOCATION

Dabei gilt:

  • DATASET_ID: eine Kennung für das Dataset. Die Dataset-ID muss Folgendes enthalten:
    • Eine eindeutige ID an ihrem Speicherort
    • Ein Unicode-String mit 1 bis 256 Zeichen, der aus Folgendem besteht:
      • Nummern
      • Buchstaben
      • Unterstriche
      • Bindestriche
      • Epochen
  • LOCATION: der Speicherort des Datasets. Verwenden Sieus-central1 .us-west2 .us-east4 .europe-west2 ,europe-west3 .europe-west4 .europe-west6 .northamerica-northeast1 ,southamerica-east1 .asia-east2 .asia-northeast1 ,asia-northeast3 .asia-south1 .asia-southeast1 .australia-southeast1 oderus aus.

Die Ausgabe sieht so aus:

Created dataset [DATASET_ID].

Wählen Sie einen der folgenden Abschnitte aus, um diese Kurzanleitung abzuschließen:

DICOM-Instanz speichern und ansehen

In diesem Abschnitt erfahren Sie, wie Sie die folgenden Aufgaben ausführen:

  1. DICOM-Speicher erstellen
  2. Importieren Sie eine DICOM-Instanz aus Cloud Storage in den DICOM-Speicher.
  3. Metadaten der DICOM-Instanz aufrufen

Die Cloud Healthcare API implementiert den DICOMweb-Standard, um medizinische Bildgebungsdaten zu speichern und darauf zuzugreifen.

DICOM-Speicher erstellen

DICOM-Speicher sind in Datasets vorhanden und enthalten DICOM-Instanzen.

Erstellen Sie mit dem Befehl gcloud healthcare dicom-stores create einen DICOM-Speicher:

gcloud healthcare dicom-stores create DICOM_STORE_ID \
  --dataset=DATASET_ID \
  --location=LOCATION

Dabei gilt:

  • DICOM_STORE_ID: eine Kennung für den DICOM-Speicher. Die DICOM-Speicher-ID muss Folgendes enthalten:
    • Eine eindeutige ID im Dataset
    • Ein Unicode-String mit 1 bis 256 Zeichen, der aus Folgendem besteht:
      • Nummern
      • Buchstaben
      • Unterstriche
      • Bindestriche
      • Epochen
  • DATASET_ID: die Dataset-ID
  • LOCATION: der Speicherort des Datasets

Die Ausgabe sieht so aus:

Created dicomStore [DICOM_STORE_ID].

DICOM-Instanz importieren

DICOM-Beispieldaten sind im Cloud Storage-Bucket gs://gcs-public-data--healthcare-nih-chest-xray verfügbar.

Importieren Sie die DICOM-Instanz gs://gcs-public-data--healthcare-nih-chest-xray/dicom/00000001_000.dcm mit dem Befehl gcloud healthcare dicom-stores import:

gcloud healthcare dicom-stores import gcs DICOM_STORE_ID \
  --dataset=DATASET_ID \
  --location=LOCATION \
  --gcs-uri=gs://gcs-public-data--healthcare-nih-chest-xray/dicom/00000001_000.dcm

Dabei gilt:

  • DICOM_STORE_ID: die DICOM-Speicher-ID
  • DATASET_ID: die Dataset-ID
  • LOCATION: der Speicherort des Datasets

Die Ausgabe sieht so aus:

Request issued for: [DICOM_STORE_ID]
Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...done.
name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID

DICOM-Instanzmetadaten ansehen

Das gcloud-Tool unterstützt keine DICOMweb-Transaktionen wie das Aufrufen oder Abrufen von Instanzen. Stattdessen können Sie das DICOMweb-Befehlszeilentool von Google verwenden. Das DICOMweb-Befehlszeilentool wird mit Python ausgeführt. Informationen zum Einrichten von Python in Google Cloud finden Sie unter Python-Entwicklungsumgebung einrichten.

Sehen Sie sich die Metadaten der DICOM-Instanz an:

  1. Nachdem Sie Python eingerichtet haben, installieren Sie das DICOMweb-Befehlszeilentool mit Pip:

    pip install https://github.com/GoogleCloudPlatform/healthcare-api-dicomweb-cli/archive/v1.0.zip
    
  2. Rufen Sie die Metadaten der DICOM-Instanz auf:

    dcmweb \
      https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb \
      search instances
    

    Dabei gilt:

    • DICOM_STORE_ID: die DICOM-Speicher-ID
    • DATASET_ID: die Dataset-ID
    • LOCATION: der Speicherort des Datasets

    Die Ausgabe sieht so aus:

    [
      {
        "00080016": {
          "Value": [
            "1.2.840.10008.5.1.4.1.1.7"
          ],
          "vr": "UI"
        },
        "00080018": {
          "Value": [
            "1.3.6.1.4.1.11129.5.5.153751009835107614666834563294684339746480"
          ],
          "vr": "UI"
        },
        "00080060": {
          "Value": [
            "DX"
          ],
          "vr": "CS"
        },
        "00100020": {
          "Value": [
            "1"
          ],
          "vr": "LO"
        },
        "00100040": {
          "Value": [
            "M"
          ],
          "vr": "CS"
        },
        "0020000D": {
          "Value": [
            "1.3.6.1.4.1.11129.5.5.111396399361969898205364400549799252857604"
          ],
          "vr": "UI"
        },
        "0020000E": {
          "Value": [
            "1.3.6.1.4.1.11129.5.5.195628213694300498946760767481291263511724"
          ],
          "vr": "UI"
        },
        "00280010": {
          "Value": [
            1024
          ],
          "vr": "US"
        },
        "00280011": {
          "Value": [
            1024
          ],
          "vr": "US"
        },
        "00280100": {
          "Value": [
            8
          ],
          "vr": "US"
        }
      }
    ]
    

Nachdem Sie nun eine DICOM-Instanz in der Cloud Healthcare API gespeichert und die Metadaten angesehen haben, fahren Sie mit Weitere Informationen fort, um Informationen zu den nächsten Schritten zu erhalten, beispielsweise zum Suchen für DICOM-Bilder.

FHIR-Ressourcen speichern

In diesem Abschnitt erfahren Sie, wie Sie die folgenden Aufgaben ausführen:

  1. Erstellen Sie einen FHIR-Speicher.
  2. FHIR-Ressourcen aus einem Cloud Storage-Bucket in den FHIR-Speicher importieren

FHIR-Speicher erstellen

FHIR-Speicher sind in Datasets vorhanden und enthalten FHIR-Ressourcen.

Erstellen Sie mit dem Befehl gcloud healthcare fhir-stores create einen FHIR-Speicher:

gcloud healthcare fhir-stores create FHIR_STORE_ID \
  --dataset=DATASET_ID \
  --location=LOCATION \
  --version=R4

Dabei gilt:

  • FHIR_STORE_ID: eine Kennung für den FHIR-Speicher. Die FHIR-Speicher-ID muss Folgendes enthalten:
    • Eine eindeutige ID im Dataset
    • Ein Unicode-String mit 1 bis 256 Zeichen, der aus Folgendem besteht:
      • Nummern
      • Buchstaben
      • Unterstriche
      • Bindestriche
      • Epochen
  • DATASET_ID: die Dataset-ID
  • LOCATION: der Speicherort des Datasets

Die Ausgabe sieht so aus:

Created fhirStore [FHIR_STORE_ID].

FHIR-Ressourcen importieren

FHIR-Beispieldaten sind im Cloud Storage-Bucket gs://gcp-public-data--synthea-fhir-data-10-patients verfügbar. Der Bucket enthält das Verzeichnis fhir_r4_ndjson/, das mehrere Typen von FHIR-Ressourcen enthält.

Importieren Sie die FHIR-Ressourcen aus dem Bucket mit dem Befehl gcloud healthcare fhir-stores import in Ihren FHIR-Speicher:

gcloud healthcare fhir-stores import gcs FHIR_STORE_ID \
  --dataset=DATASET_ID \
  --location=LOCATION \
  --gcs-uri=gs://gcp-public-data--synthea-fhir-data-10-patients/fhir_r4_ndjson/*.ndjson \
  --content-structure=RESOURCE

Dabei gilt:

  • FHIR_STORE_ID: die FHIR-Speicher-ID
  • DATASET_ID: die Dataset-ID
  • LOCATION: der Speicherort des Datasets

Die Ausgabe sieht so aus:

Request issued for: [FHIR_STORE_ID]
Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...done.
name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID
version: R4

Nachdem Sie eine FHIR-Ressource in der Cloud Healthcare API gespeichert haben, fahren Sie mit Weitere Informationen fort, um Informationen zu den nächsten Schritten zu erhalten, z. B. wie Sie FHIR-Ressourcen in der FHIR-Speicher.

HL7v2-Nachricht speichern

In diesem Abschnitt erfahren Sie, wie Sie die folgenden Aufgaben ausführen:

  1. HL7v2-Speicher erstellen.
  2. Erstellen Sie einen Cloud Storage-Bucket und kopieren Sie eine HL7v2-Nachricht in den Bucket.
  3. Importieren Sie die HL7v2-Nachricht aus dem Cloud Storage-Bucket in den HL7v2-Speicher.

Die HL7v2-Implementierung in der Cloud Healthcare API entspricht dem HL7v2-Standard.

HL7v2-Speicher erstellen

HL7v2-Speicher sind in Datasets vorhanden und enthalten HL7v2-Nachrichten.

Erstellen Sie mit dem Befehl gcloud healthcare hl7V2-stores create einen HL7v2-Speicher:

gcloud healthcare hl7V2-stores create HL7V2_STORE_ID \
  --dataset=DATASET_ID \
  --location=LOCATION

Dabei gilt:

  • HL7V2_STORE_ID ist eine Kennung für den HL7v2-Speicher. Die HL7v2-Speicher-ID muss Folgendes enthalten:
    • Eine eindeutige ID im Dataset
    • Ein Unicode-String mit 1 bis 256 Zeichen, der aus Folgendem besteht:
      • Nummern
      • Buchstaben
      • Unterstriche
      • Bindestriche
      • Epochen
  • DATASET_ID: die Dataset-ID
  • LOCATION: der Speicherort des Datasets

Die Ausgabe sieht so aus:

Created hl7v2Store [HL7V2_STORE_ID].

HL7v2-Nachricht importieren

Speichern Sie eine HL7v2-Beispielnachrichtendatei in einem Cloud Storage-Bucket und importieren Sie die Beispielnachrichtendatei in Ihren HL7v2-Speicher:

  1. Laden Sie die Beispieldatei HL7v2-Nachricht auf Ihren Computer herunter. Die Nachricht enthält die folgenden grundlegenden Informationen, wobei sie für das Feld data der Beispieldatei base64-codiert ist:

    MSH|^~\&|A|SEND_FACILITY|A|A|20180101000000||TYPE^A|20180101000000|T|0.0|||AA||00|ASCII
    EVN|A00|20180101040000
    PID||14^111^^^^MRN|11111111^^^^MRN~1111111111^^^^ORGNMBR
    
  2. Wenn Sie noch keinen Cloud Storage-Bucket haben, den Sie zum Speichern der HL7v2-Beispielnachricht verwenden möchten, erstellen Sie einen neuen Bucket mit dem Befehl gsutil mb:

    gsutil mb gs://BUCKET
    

    Ersetzen Sie die Variable BUCKET durch Ihren eigenen global eindeutigen Bucket-Namen.

    Die Ausgabe sieht so aus:

    Creating gs://BUCKET/...
    

    Wenn der von Ihnen ausgewählte Bucket-Name bereits von Ihnen oder einer anderen Person verwendet wird, gibt der Befehl Folgendes zurück:

    Creating gs://BUCKET/...
    ServiceException: 409 Bucket BUCKET already exists.
    

    Wenn der Bucket-Name bereits verwendet wird, versuchen Sie es mit einem anderen Bucket-Namen.

  3. Kopieren Sie die HL7v2-Beispielnachricht mit dem Befehl gsutil cp in den Bucket:

    gsutil cp hl7v2-sample-import.ndjson gs://BUCKET
    

    Die Ausgabe sieht so aus:

    Copying file://hl7v2-sample-import.ndjson [Content-Type=application/octet-stream]...
    / [1 files][  241.0 B/  241.0 B]
    Operation completed over 1 objects/241.0 B.
    
  4. Nachdem Sie die HL7v2-Datei in den Bucket kopiert haben, importieren Sie die HL7v2-Nachricht mit dem Befehl gcloud beta healthcare hl7V2-stores import:

    gcloud beta healthcare hl7v2-stores import gcs HL7V2_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION \
     --gcs-uri=gs://BUCKET/hl7v2-sample-import.ndjson
    

    Dabei gilt:

    • HL7V2_STORE_ID: die HL7v2-Speicher-ID
    • DATASET_ID: die Dataset-ID
    • LOCATION: der Speicherort des Datasets
    • BUCKET: der Name des Cloud Storage-Buckets, der die HL7v2-Datei enthält

    Die Ausgabe sieht so aus:

    Request issued for: [HL7V2_STORE_ID]
    Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...done.
    name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID
    

Nachdem Sie eine HL7v2-Nachricht in der Cloud Healthcare API gespeichert haben, finden Sie unter Weitere Informationen Informationen zu den nächsten Schritten, z. B. dazu, wie Sie die Inhalte der HL7v2-Nachricht in der sein Geschäft.

Bereinigen

Um zu vermeiden, dass Ihrem Google Cloud-Konto die in dieser Kurzanleitung verwendeten Ressourcen in Rechnung gestellt werden, können Sie die in Google Cloud erstellten Ressourcen bereinigen.

Wenn Sie ein neues Projekt für diese Anleitung erstellt haben, führen Sie die Schritte unter Projekt löschen aus. Andernfalls führen Sie die Schritte unter Dataset löschen aus.

Projekt löschen

  1. Wechseln Sie in der Cloud Console zur Seite Ressourcen verwalten.

    Zur Seite „Ressourcen verwalten“

  2. Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie dann auf Löschen.
  3. Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Shut down (Beenden), um das Projekt zu löschen.

Dataset löschen

Wenn Sie das in dieser Kurzanleitung erstellte Dataset nicht mehr benötigen, können Sie es löschen. Durch das Löschen eines Datasets werden das Dataset und alle darin enthaltenen FHIR-, HL7v2- oder DICOM-Speicher endgültig gelöscht.

  1. Verwenden Sie zum Löschen eines Datasets den Befehl gcloud healthcare datasets delete:

    gcloud healthcare datasets delete DATASET_ID \
    --location=LOCATION \
    --project=PROJECT_ID
    
  2. Geben Sie zur Bestätigung Y ein.

Die Ausgabe sieht so aus:

Deleted dataset [DATASET_ID].

Wie ist es gelaufen?

Nächste Schritte

In den folgenden Abschnitten finden Sie allgemeine Informationen zur Cloud Healthcare API und zur Ausführung von Aufgaben mit der Cloud Console oder curl und Windows PowerShell.

DICOM

Fahren Sie mit dem DICOM-Leitfaden fort, um Themen wie die folgenden zu prüfen:

Informationen zur Implementierung des DICOMweb-Standards finden Sie in der DICOM-Konformitätserklärung.

FHIR

Im FHIR-Leitfaden findest du Informationen zu folgenden Themen:

Informationen zur Implementierung des FHIR-Standards finden Sie in der FHIR-Konformitätserklärung.

HL7v2

Lesen Sie im HL7v2-Leitfaden unter anderem die folgenden Themen: