Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Kurzanleitung für einen schnellen Start mit dem gcloud-Befehlszeilentool

Auf dieser Seite wird erläutert, wie Sie die Cloud Healthcare API mit dem gcloud-Befehlszeilentool verwenden und die folgenden Aufgaben ausführen:

  1. Erstellen Sie ein Cloud Healthcare API-Dataset.
  2. Erstellen Sie einen der folgenden Datenspeicher im Dataset:
    • DICOM-Speicher (Digital Imaging and Communications in Medicine)
    • Speicher für schnelle Healthcare Interoperability Resources (FHIR)
    • Healthcare-Level Seven International Version 2 (HL7v2)
  3. Speichern und untersuchen Sie bestimmte medizinische Daten im DICOM-, FHIR- oder HL7v2-Speicher.

Hinweis

  1. Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für Ihr Projekt aktiviert ist.

  4. Aktivieren Sie die Cloud Healthcare API.

    Aktivieren Sie die API

  5. Installieren Sie gsutil, ein Tool, mit dem Sie über HTTPS über die Befehlszeile auf Cloud Storage zugreifen können.
  6. Führen Sie je nachdem, wie Sie das gcloud-Befehlszeilentool verwenden, einen der folgenden Schritte aus:
    • Wenn Sie Cloud Shell verwenden, rufen Sie die Google Cloud Console auf und klicken Sie dann oben im Konsolenfenster auf Cloud Shell aktivieren.

      Zur Google Cloud Console

      In einem neuen Frame im unteren Teil der Console wird eine Cloud Shell-Sitzung geöffnet und darin eine Eingabeaufforderung angezeigt. Es kann einige Sekunden dauern, bis die Shell-Sitzung initialisiert ist.

    • Wenn Sie eine virtuelle Compute Engine-Maschine verwenden, öffnen Sie das Terminalfenster der virtuellen Maschine.
    • Wenn Sie das Tool gcloud auf Ihrem Computer verwenden, installieren und initialisieren Sie das Cloud SDK.

Dataset erstellen

Datasets sind die grundlegenden Container, die Gesundheitsdaten in Google Cloud speichern. Zur Verwendung der Cloud Healthcare API müssen Sie mindestens ein Dataset erstellen.

Verwenden Sie zum Erstellen eines Datasets den Befehl gcloud healthcare datasets create:

gcloud healthcare datasets create DATASET_ID \
    --location=LOCATION

Dabei gilt:

  • DATASET_ID: Eine Kennzeichnung für das Dataset. Die Dataset-ID innerhalb des Standorts muss eindeutig sein. Die Dataset-ID kann ein beliebiger Unicode-String mit 1–256 Zeichen sein, der aus Zahlen, Buchstaben, Unterstrichen, Bindestrichen und Punkten besteht.
  • LOCATION: der Google Cloud-Standort, an dem das Dataset erstellt werden soll. Verwenden Sie us-central1, us-west2, us-east4, europe-west2, europe-west4, europe-west6, northamerica-northeast1, southamerica-east1, asia-east2, asia-northeast1, asia-southeast1, australia-southeast1 oder us. Wenn Sie die Standardregion für das Projekt verwenden möchten, lassen Sie die Option --location weg.

Die Ausgabe sieht so aus:

Created dataset [DATASET_ID].

DICOM-, FHIR- und HL7v2-Daten speichern und aufrufen

Wählen Sie für diesen Schnellstart einen der folgenden Abschnitte aus:

DICOM-Instanzen speichern und aufrufen

In diesem Abschnitt erfahren Sie, wie Sie die folgenden Aufgaben ausführen:

  1. DICOM-Speicher erstellen
  2. DICOM-Instanz aus Cloud Storage in den DICOM-Speicher importieren
  3. (Optional) Metadaten der DICOM-Instanz aufrufen.

Die Cloud Healthcare API implementiert den DICOMweb-Standard zum Speichern und Aufrufen medizinischer Bildgebungsdaten.

  1. DICOM-Speicher sind in Datasets vorhanden und enthalten DICOM-Instanzen. Verwenden Sie zum Erstellen eines DICOM-Speichers den Befehl gcloud healthcare dicom-stores create:

    gcloud healthcare dicom-stores create DICOM_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION
    

    Dabei gilt:

    • DICOM_STORE_ID: eine Kennzeichnung für den DICOM-Speicher. Die DICOM-Speicher-ID muss im Dataset eindeutig sein. Die DICOM-Speicher-ID kann ein beliebiger Unicode-String zwischen 1 und 256 Zeichen sein, der aus Zahlen, Buchstaben, Unterstrichen, Bindestrichen und Punkten besteht.
    • DATASET_ID: Name des übergeordneten Datasets des DICOM-Speichers.
    • LOCATION: Der Standort des übergeordneten Datasets.

    Die Ausgabe sieht so aus:

    Created dicomStore [DICOM_STORE_ID].
    
  2. DICOM-Beispieldaten sind im Cloud Storage-Bucket gs://gcs-public-data--healthcare-nih-chest-xray verfügbar.

    Importieren Sie die DICOM-Instanz gs://gcs-public-data--healthcare-nih-chest-xray/dicom/00000001_000.dcm mit dem Befehl gcloud healthcare dicom-stores import:

    gcloud healthcare dicom-stores import gcs DICOM_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION \
     --gcs-uri=gs://gcs-public-data--healthcare-nih-chest-xray/dicom/00000001_000.dcm
    

    Dabei gilt:

    • DICOM_STORE_ID: die ID für den DICOM-Speicher
    • DATASET_ID: Name des übergeordneten Datasets des DICOM-Speichers.
    • LOCATION: Der Standort des übergeordneten Datasets.

    Die Ausgabe sieht so aus:

    Request issued for: [DICOM_STORE_ID]
    Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...done.
    name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID
    
  3. (Optional) Das gcloud-Tool unterstützt keine DICOMweb-Transaktionen, z. B. das Aufrufen oder Abrufen von Instanzen. Sie können stattdessen das DICOMweb-Befehlszeilentool von Google verwenden. Das DICOMweb-Befehlszeilentool wird mit Python ausgeführt. Informationen zum Einrichten von Python in Google Cloud finden Sie unter Python-Entwicklungsumgebung einrichten.

    Nach der Einrichtung von Python können Sie das Tool mit Pip installieren:

    pip install https://github.com/GoogleCloudPlatform/healthcare-api-dicomweb-cli/archive/v1.0.zip
    

    Führen Sie den folgenden Befehl aus, um die Metadaten der Instanz aufzurufen:

    dcmweb \
      https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb \
      search instances
    

    Die Ausgabe sieht so aus:

    [
      {
        "00080016": {
          "Value": [
            "1.2.840.10008.5.1.4.1.1.7"
          ],
          "vr": "UI"
        },
        "00080018": {
          "Value": [
            "1.3.6.1.4.1.11129.5.5.153751009835107614666834563294684339746480"
          ],
          "vr": "UI"
        },
        "00080060": {
          "Value": [
            "DX"
          ],
          "vr": "CS"
        },
        "00100020": {
          "Value": [
            "1"
          ],
          "vr": "LO"
        },
        "00100040": {
          "Value": [
            "M"
          ],
          "vr": "CS"
        },
        "0020000D": {
          "Value": [
            "1.3.6.1.4.1.11129.5.5.111396399361969898205364400549799252857604"
          ],
          "vr": "UI"
        },
        "0020000E": {
          "Value": [
            "1.3.6.1.4.1.11129.5.5.195628213694300498946760767481291263511724"
          ],
          "vr": "UI"
        },
        "00280010": {
          "Value": [
            1024
          ],
          "vr": "US"
        },
        "00280011": {
          "Value": [
            1024
          ],
          "vr": "US"
        },
        "00280100": {
          "Value": [
            8
          ],
          "vr": "US"
        }
      }
    ]
    

Nachdem Sie eine DICOM-Instanz in der Cloud Healthcare API gespeichert haben, finden Sie unter Weitere Informationen Informationen zu den nächsten Schritten, z. B. zum Suchen oder Abrufen von DICOM-Images.

FHIR-Ressourcen speichern und aufrufen

In diesem Abschnitt erfahren Sie, wie Sie die folgenden Aufgaben ausführen:

  1. Erstellen Sie einen FHIR-Speicher.
  2. Erstellen Sie einen Cloud Storage-Bucket und kopieren Sie eine FHIR-Ressourcendatei in den Bucket.
  3. Importieren Sie die FHIR-Ressource aus dem Cloud Storage-Bucket in den FHIR-Speicher.

Führen Sie dazu folgende Schritte aus:

  1. FHIR-Speicher befinden sich in Datasets und enthalten FHIR-Ressourcen. Verwenden Sie zum Erstellen eines FHIR-Speichers den Befehl gcloud healthcare fhir-stores create:

    gcloud healthcare fhir-stores create FHIR_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION \
     --version=STU3
    

    Dabei gilt:

    • FHIR_STORE_ID: eine Kennzeichnung für den FHIR-Speicher. Die FHIR-Speicher-ID muss im Dataset eindeutig sein. Die FHIR-Speicher-ID kann ein beliebiger Unicode-String von 1 bis 256 Zeichen sein, der aus Zahlen, Buchstaben, Unterstrichen, Bindestrichen und Punkten besteht.
    • DATASET_ID: Name des übergeordneten Datasets des FHIR-Speichers.
    • LOCATION: Der Standort des übergeordneten Datasets.
    • Die verfügbaren Optionen für die FHIR-Speicherversion sind DSTU2, STU3 oder R4. Verwenden Sie für diese Kurzanleitung STU3.

    Die Ausgabe sieht so aus:

    Created fhirStore [FHIR_STORE_ID].
    
  2. Speichern Sie die Beispieldatei "JSON FHIR" auf Ihrem Computer. Die Datei enthält grundlegende Daten für eine Patientenressource und einen Encounter mit dem Patienten.

  3. Wenn Sie noch keinen Cloud Storage-Bucket zum Speichern der Beispiel-FHIR-Ressourcendatei haben, erstellen Sie mit dem Befehl gsutil mb einen neuen Bucket:

    gsutil mb gs://BUCKET
    

    Ersetzen Sie die Variable BUCKET durch Ihren eigenen global eindeutigen Bucket-Namen.

    Die Ausgabe sieht so aus:

    Creating gs://BUCKET/...
    

    Wenn der gewählte Bucket-Name entweder von Ihnen oder jemand anderem bereits verwendet wird, gibt der Befehl die folgende Meldung zurück:

    Creating gs://BUCKET/...
    ServiceException: 409 Bucket BUCKET already exists.
    

    Wenn der Bucket-Name bereits verwendet wird, versuchen Sie es mit einem anderen Bucket-Namen noch einmal.

  4. Kopieren Sie die JSON-Beispieldatei für das FHIR-Objekt mit dem Befehl gsutil cp in den Bucket:

    gsutil cp resources.ndjson gs://BUCKET
    

    Die Ausgabe sieht so aus:

    Copying file://resources.ndjson [Content-Type=application/octet-stream]...
    / [1 files][  860.0 B/  860.0 B]
    Operation completed over 1 objects/860.0 B.
    
  5. Nachdem Sie die FHIR-Ressourcendatei in den Bucket kopiert haben, importieren Sie die FHIR-Ressource mit dem Befehl gcloud healthcare fhir-stores import:

    gcloud healthcare fhir-stores import gcs FHIR_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION \
     --gcs-uri=gs://BUCKET/resources.ndjson \
     --content-structure=RESOURCE
    

    Dabei gilt:

    • FHIR_STORE_ID: die ID für den FHIR-Speicher.
    • DATASET_ID: Name des übergeordneten Datasets des FHIR-Speichers.
    • LOCATION: Der Standort des übergeordneten Datasets.
    • BUCKET: Der Name des Cloud Storage-Buckets, der die FHIR-Ressourcendatei enthält.

    Die Ausgabe sieht so aus:

    Request issued for: [FHIR_STORE_ID]
    Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...done.
    name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID
    version: STU3
    

Nachdem Sie eine FHIR-Ressource in der Cloud Healthcare API gespeichert haben, finden Sie unter Weitere Informationen Informationen zu den nächsten Schritten, z. B. zum Aufrufen und Suchen nach FHIR-Ressourcen im FHIR-Speicher

HL7v2-Nachrichten speichern und ansehen

In diesem Abschnitt erfahren Sie, wie Sie die folgenden Aufgaben ausführen:

  1. HL7v2-Speicher erstellen.
  2. Erstellen Sie einen Cloud Storage-Bucket und kopieren Sie eine HL7v2-Nachricht in den Bucket.
  3. Importieren Sie die HL7v2-Nachricht aus dem Cloud Storage-Bucket in den HL7v2-Speicher.

Die HL7v2-Implementierung in der Cloud Healthcare API entspricht dem HL7v2-Standard.

  1. HL7v2-Speicher sind in Datasets vorhanden und HL7v2-Nachrichten enthalten. Verwenden Sie zum Erstellen eines HL7v2-Speichers den Befehl gcloud healthcare hl7V2-stores create:

    gcloud healthcare hl7V2-stores create HL7V2_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION
    

    Dabei gilt:

    • HL7V2_STORE_ID: eine Kennzeichnung für den HL7v2-Speicher Die HL7v2-Speicher-ID muss im Dataset eindeutig sein. Die HL7v2-Speicher-ID kann ein beliebiger Unicode-String von 1 bis 256 Zeichen sein, der aus Zahlen, Buchstaben, Unterstrichen, Bindestrichen und Punkten besteht.
    • DATASET_ID: Der Name des übergeordneten HL7v2-Speichers.
    • LOCATION: Der Standort des übergeordneten Datasets.

    Die Ausgabe sieht so aus:

    Created hl7v2Store [HL7V2_STORE_ID].
    
  2. Speichern Sie die Beispieldatei HL7v2-Nachrichten auf Ihrem Computer. Die Nachricht enthält die folgenden grundlegenden Informationen, wobei sie im Feld data der Beispieldatei Base64-codiert sind:

    MSH|^~\&|A|SEND_FACILITY|A|A|20180101000000||TYPE^A|20180101000000|T|0.0|||AA||00|ASCII
    EVN|A00|20180101040000
    PID||14^111^^^^MRN|11111111^^^^MRN~1111111111^^^^ORGNMBR
    
  3. Wenn Sie noch keinen Cloud Storage-Bucket haben, den Sie zum Speichern der HL7v2-Beispielnachricht verwenden möchten, erstellen Sie mit dem Befehl gsutil mb einen neuen Bucket:

    gsutil mb gs://BUCKET
    

    Ersetzen Sie die Variable BUCKET durch Ihren eigenen global eindeutigen Bucket-Namen.

    Die Ausgabe sieht so aus:

    Creating gs://BUCKET/...
    

    Wenn der von Ihnen oder jemand anderes bereits verwendete Bucket-Name bereits verwendet wird, gibt der Befehl Folgendes zurück:

    Creating gs://BUCKET/...
    ServiceException: 409 Bucket BUCKET already exists.
    

    Wenn der Bucket-Name bereits verwendet wird, versuchen Sie es mit einem anderen Bucket-Namen noch einmal.

  4. Kopieren Sie die HL7v2-Beispielnachricht mit dem Befehl gsutil cp in den Bucket:

    gsutil cp hl7v2-sample-import.ndjson gs://BUCKET
    

    Die Ausgabe sieht so aus:

    Copying file://hl7v2-sample-import.ndjson [Content-Type=application/octet-stream]...
    / [1 files][  241.0 B/  241.0 B]
    Operation completed over 1 objects/241.0 B.
    
  5. Nachdem Sie die HL7v2-Datei in den Bucket kopiert haben, importieren Sie die HL7v2-Nachricht mit dem Befehl gcloud beta healthcare hl7V2-stores import:

    gcloud beta healthcare hl7v2-stores import gcs HL7V2_STORE_ID \
     --dataset=DATASET_ID \
     --location=LOCATION \
     --gcs-uri=gs://BUCKET/hl7v2-sample-import.ndjson
    

    Dabei gilt:

    • HL7V2_STORE_ID: die ID für den HL7v2-Speicher.
    • DATASET_ID: Der Name des übergeordneten HL7v2-Speichers.
    • LOCATION: Der Standort des übergeordneten Datasets.
    • BUCKET: der Name des Cloud Storage-Buckets, der die HL7v2-Datei enthält.

    Die Ausgabe sieht so aus:

    Request issued for: [HL7V2_STORE_ID]
    Waiting for operation [projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID] to complete...done.
    name: projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID
    

Nachdem Sie eine HL7v2-Nachricht in der Cloud Healthcare API gespeichert haben, finden Sie unter Weitere Informationen Informationen zu den nächsten Schritten, z. B. wie Sie den Inhalt der HL7v2-Nachricht in erhalten.

Bereinigen

Um zu vermeiden, dass Ihrem Google Cloud-Konto die in dieser Kurzanleitung verwendeten Ressourcen in Rechnung gestellt werden, können Sie die in Google Cloud erstellten Ressourcen bereinigen.

Wenn Sie ein neues Projekt für diese Anleitung erstellt haben, führen Sie die Schritte unter Projekt löschen aus. Andernfalls führen Sie die Schritte unter Dataset löschen aus.

Projekt löschen

  1. Wechseln Sie in der Cloud Console zur Seite Ressourcen verwalten.

    Zur Seite „Ressourcen verwalten“

  2. Wählen Sie in der Projektliste das Projekt aus, das Sie löschen möchten, und klicken Sie dann auf Löschen.
  3. Geben Sie im Dialogfeld die Projekt-ID ein und klicken Sie auf Shut down (Beenden), um das Projekt zu löschen.

Dataset löschen

Wenn Sie das in dieser Kurzanleitung erstellte Dataset nicht mehr benötigen, können Sie es löschen. Durch das Löschen eines Datasets werden das Dataset und alle darin enthaltenen FHIR-, HL7v2- oder DICOM-Speicher endgültig gelöscht.

  1. Um ein Dataset zu löschen, verwenden Sie den Befehl gcloud healthcare datasets delete:

    gcloud healthcare datasets delete DATASET_ID \
    --location=LOCATION \
    --project=PROJECT_ID
    
  2. Geben Sie zur Bestätigung Y ein.

Die Ausgabe sieht so aus:

Deleted dataset [DATASET_ID].

Wie ist es gelaufen?

Nächste Schritte

In den folgenden Abschnitten finden Sie allgemeine Informationen zur Cloud Healthcare API und zum Ausführen von Aufgaben mit der Cloud Console oder mit curl und Windows PowerShell.

DICOM

Im DICOM-Leitfaden finden Sie unter anderem folgende Themen:

Weitere Informationen zur Implementierung des DICOMweb-Standards finden Sie in der DICOM-Konformitätserklärung.

FHIR

Fahren Sie mit dem FHIR-Leitfaden folgendermaßen fort:

Weitere Informationen zur Implementierung des FHIR-Standards durch die Cloud Healthcare API finden Sie in der FHIR-Konformitätserklärung.

HL7v2

Rufen Sie die HL7v2-Anleitung auf, um unter anderem folgende Themen zu überprüfen: