Datenspeicher für die Suche nach Gesundheitsinformationen verwalten

Nachdem Sie Datenspeicher für die Gesundheitsversorgung erstellt und FHIR R4-Daten importiert haben, können Sie die folgenden Vorgänge ausführen, um sie zu verwalten:

Batchimport abbrechen

So brechen Sie einen laufenden Batch-Import ab:

REST

  1. Suchen Sie die Vorgangs-ID für den Batchimportvorgang. Diese Vorgangs-ID stimmt mit der überein, die beim Importieren der Daten in Ihren Datenspeicher zurückgegeben wurde. Wenn Sie die Vorgangs-ID bereits haben, fahren Sie mit dem nächsten Schritt fort.

    1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.

      Zur Seite „Datenspeicher“

    2. Klicken Sie auf den Datenspeicher, dessen Import Sie abbrechen möchten.

    3. Klicken Sie auf der Seite mit den Details zum Datenspeicher auf Details ansehen. Diese Option ist nur verfügbar, nachdem der Importvorgang erstellt wurde und läuft.

    4. Rufen Sie im Bereich Details zum Aktivitätsprotokoll die Vorgangs-ID ab.

  2. Einen laufenden Batchimport abbrechen

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/operations/OPERATION_ID:cancel" \
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • DATA_STORE_ID: Die ID des Datenspeichers, dessen laufenden Batchimport Sie abbrechen möchten.
    • IMPORT_OPERATION_ID: die ID des laufenden Batch-Importvorgangs, den Sie abbrechen möchten.

    Wenn der Vorgang erfolgreich abgebrochen wurde, sollten Sie ein leeres JSON-Objekt erhalten.

Streaming pausieren oder fortsetzen

So pausieren oder fortsetzen Sie einen Streamingvorgang:

Console

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google CloudProjekt mit ihren Details angezeigt.

  3. Klicken Sie auf den Datenspeicher, für den Sie das Streaming pausieren oder fortsetzen möchten.

  4. Klicken Sie auf der Seite Daten des Daten-Connectors auf Datenstreaming pausieren, um das Streaming zu pausieren, oder auf Datenstreaming fortsetzen, um es fortzusetzen.

REST

  1. Suchen Sie nach Ihrer Sammlungs-ID. Wenn Sie die Sammlungs-ID bereits haben, fahren Sie mit dem nächsten Schritt fort.

    1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.

      Zur Seite „Datenspeicher“

    2. Klicken Sie auf den Namen des Daten-Connectors, dessen Streaming Sie pausieren oder fortsetzen möchten.

    3. Rufen Sie auf der Seite Daten Ihres Daten-Connectors die Sammlungs-ID ab.

  2. Streaming innerhalb eines Daten-Connectors pausieren oder fortsetzen

    curl -X PATCH \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/COLLECTION_ID/dataConnector?updateMask=auto_run_disabled" \
    -d ' {
      "name":"projects/PROJECT_ID/locations/us/collections/COLLECTION_ID/dataConnector",
      "autoRunDisabled": PAUSE_STREAM_TRUE|FALSE
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • COLLECTION_ID: Die ID des Daten-Connectors, dessen Streaming Sie pausieren oder fortsetzen möchten.
    • PAUSE_STREAM_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true festgelegt ist, wird das Streaming pausiert. Wenn er auf false festgelegt ist, wird ein pausiertes Streaming fortgesetzt.

Alle Dokumente in einem Streaming-Datenspeicher synchronisieren

Sie können einen Backfill für alle Dokumente mit den unterstützten FHIR-Ressourcentypen manuell auslösen. So können Sie Ihren Vertex AI Search-Datenspeicher mit Ihrem Cloud Healthcare API-FHIR-Speicher auf dem neuesten Stand halten. Die Datensynchronisierung ist nur in Streaming-Datenspeichern möglich.

So synchronisieren Sie alle Dokumente in einem Streaming-Datenspeicher:

Console

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google CloudProjekt mit ihren Details angezeigt.

  3. Wählen Sie die Daten aus, die Sie mit dem Datenkonnektor synchronisieren möchten.

  4. Klicken Sie auf der Seite mit den Details zum Datenspeicher auf Noch einmal importieren.

  5. Klicken Sie im Bereich Daten noch einmal importieren auf , wählen Sie ein Datum aus, nach dem die Daten synchronisiert werden sollen, und klicken Sie auf Schließen.

  6. Wählen Sie im Bereich Ressourcen noch einmal importieren alle FHIR-Ressourcentypen aus. Dadurch werden alle Dokumente mit den unterstützten FHIR-Ressourcentypen aufgefüllt.

  7. Klicken Sie auf Neu importieren.

REST

  1. Suchen Sie nach Ihrer Sammlungs-ID. Wenn Sie die Sammlungs-ID bereits haben, fahren Sie mit dem nächsten Schritt fort.

    1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.

      Zur Seite „Datenspeicher“

    2. Klicken Sie auf den Namen des Daten-Connectors, dessen Streaming Sie pausieren oder fortsetzen möchten.

    3. Rufen Sie auf der Seite Daten Ihres Daten-Connectors die Sammlungs-ID ab.

  2. Eine Synchronisierung oder ein Backfill aller Dokumente mit unterstützten FHIR-Ressourcentypen auslösen

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/COLLECTION_ID/dataConnector:startConnectorRun" \
    -d ' {
      "syncSinceTimestamp": {}
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • COLLECTION_ID: die ID der Sammlung, deren Streaming Sie pausieren oder fortsetzen möchten.

    Wenn Sie die startConnectorRun-Methode noch einmal aufrufen, während sie noch ausgeführt wird, kann ein Fehler auftreten.

Ausgewählte Dokumente in einem Streaming-Datenspeicher synchronisieren

Sie können ausgewählte Dokumente mit den unterstützten FHIR-Ressourcentypen importieren. Dies ist nützlich, wenn Sie Ihren Vertex AI Search-Datenspeicher mit Dokumenten bestimmter FHIR-Ressourcentypen aktualisieren möchten. Die Datensynchronisierung ist nur in Streaming-Datenspeichern möglich.

So synchronisieren Sie ausgewählte Dokumente in einem Streaming-Datenspeicher:

Console

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google CloudProjekt mit ihren Details angezeigt.

  3. Wählen Sie die Daten aus, die Sie synchronisieren möchten.

  4. Klicken Sie auf der Seite mit den Details zum Datenspeicher auf Noch einmal importieren.

  5. Klicken Sie im Bereich Daten noch einmal importieren auf , wählen Sie ein Datum aus, nach dem die Daten synchronisiert werden sollen, und klicken Sie auf Schließen.

  6. Wählen Sie im Bereich Ressourcen noch einmal importieren alle FHIR-Ressourcentypen aus, die Sie importieren möchten. Dadurch werden alle Dokumente der ausgewählten FHIR-Ressourcentypen importiert.

  7. Klicken Sie auf Neu importieren.

REST

  1. Suchen Sie nach Ihrer Sammlungs-ID. Wenn Sie die Sammlungs-ID bereits haben, fahren Sie mit dem nächsten Schritt fort.

    1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.

      Zur Seite „Datenspeicher“

    2. Klicken Sie auf den Namen des Daten-Connectors, dessen Streaming Sie pausieren oder fortsetzen möchten.

    3. Rufen Sie auf der Seite Daten Ihres Daten-Connectors die Sammlungs-ID ab.

  2. Sie können eine Synchronisierung oder ein Backfill ausgewählter Dokumente mit unterstützten FHIR-Ressourcentypen auslösen.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/COLLECTION_ID/dataConnector:startConnectorRun" \
    -d ' {
      "syncSinceTimestamp": {},
      "healthcareFhirResourceTypes": "Patient",
      "healthcareFhirResourceTypes": "RESOURCE_TYPE"
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • COLLECTION_ID: die ID der Sammlung, deren Streaming Sie pausieren oder fortsetzen möchten.
    • RESOURCE_TYPE: Der Ressourcentyp der FHIR-Dokumente, die Sie nachtragen möchten.

    Wenn Sie die startConnectorRun-Methode noch einmal aufrufen, während sie noch ausgeführt wird, kann ein Fehler auftreten.

Dokumente nach einem bestimmten Zeitstempel in einem Streaming-Datenspeicher synchronisieren

Sie können nach einem bestimmten Zeitstempel ausgewählte Dokumente mit den unterstützten FHIR-Ressourcentypen importieren. Die Datensynchronisierung ist nur in Streaming-Datenspeichern möglich.

So synchronisieren Sie Dokumente nach einem bestimmten Zeitstempel:

Console

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google CloudProjekt mit ihren Details angezeigt.

  3. Wählen Sie die Daten aus, die Sie synchronisieren möchten.

  4. Klicken Sie auf der Seite mit den Details zum Datenspeicher auf Noch einmal importieren.

  5. Klicken Sie im Bereich Daten noch einmal importieren auf , wählen Sie ein Datum aus, nach dem die Daten synchronisiert werden sollen, und klicken Sie auf Schließen.

  6. Wählen Sie im Bereich Ressourcen noch einmal importieren alle FHIR-Ressourcentypen aus, die Sie importieren möchten. Dadurch werden alle Dokumente der ausgewählten FHIR-Ressourcentypen importiert.

  7. Klicken Sie auf Neu importieren.

REST

  1. Suchen Sie nach Ihrer Sammlungs-ID. Wenn Sie die Sammlungs-ID bereits haben, fahren Sie mit dem nächsten Schritt fort.

    1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.

      Zur Seite „Datenspeicher“

    2. Klicken Sie auf den Namen des Daten-Connectors, dessen Streaming Sie pausieren oder fortsetzen möchten.

    3. Rufen Sie auf der Seite Daten Ihres Daten-Connectors die Sammlungs-ID ab.

  2. Eine Synchronisierung oder ein Backfill aller Dokumente mit unterstützten FHIR-Ressourcentypen auslösen

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/COLLECTION_ID/dataConnector:startConnectorRun" \
    -d ' {
      "syncSinceTimestamp": {
        "seconds": TIMESTAMP_SECONDS,
        "nanos": TIMESTAMP_NANOS
      }
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • COLLECTION_ID: die ID der Sammlung, deren Streaming Sie pausieren oder fortsetzen möchten.
    • TIMESTAMP_SECONDS: der Wert des Zeitstempels in Sekunden, seit dem die Dokumente importiert werden sollen. Sie folgt dem Zeitstempelformat.
    • TIMESTAMP_NANOS: der Wert des Zeitstempels in Sekunden, seit dem die Dokumente importiert werden sollen. Sie folgt dem Zeitstempelformat.

    Wenn Sie die startConnectorRun-Methode noch einmal aufrufen, während sie noch ausgeführt wird, kann ein Fehler auftreten.

Streaming löschen

So löschen Sie einen Streamingvorgang:

Console

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google CloudProjekt mit ihren Details angezeigt.

  3. Klicken Sie in der Liste der Datenspeicher auf Weitere Optionen für den Datenconnector, den Sie löschen möchten.

  4. Klicken Sie auf Löschen.

  5. Geben Sie im angezeigten Dialogfeld Ja ein und klicken Sie auf Bestätigen, um die Löschung zu bestätigen.

REST

  1. Suchen Sie nach Ihrer Sammlungs-ID. Wenn Sie die Sammlungs-ID bereits haben, fahren Sie mit dem nächsten Schritt fort.

    1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.

      Zur Seite „Datenspeicher“

    2. Klicken Sie auf den Namen des Daten-Connectors, dessen Streaming Sie pausieren oder fortsetzen möchten.

    3. Rufen Sie auf der Seite Daten Ihres Daten-Connectors die Sammlungs-ID ab.

  2. Eine Synchronisierung oder ein Backfill aller Dokumente mit unterstützten FHIR-Ressourcentypen auslösen

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/COLLECTION_ID/dataConnector:startConnectorRun" \
    -d ' {
      "syncSinceTimestamp": {
        "seconds": TIMESTAMP_SECONDS,
        "nanos": TIMESTAMP_NANOS
      }
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • COLLECTION_ID: die ID der Sammlung, deren Streaming Sie pausieren oder fortsetzen möchten.
    • TIMESTAMP_SECONDS: der Wert des Zeitstempels in Sekunden, seit dem die Dokumente importiert werden sollen. Sie folgt dem Zeitstempelformat.
    • TIMESTAMP_NANOS: der Wert des Zeitstempels in Sekunden, seit dem die Dokumente importiert werden sollen. Sie folgt dem Zeitstempelformat.

    Wenn Sie die startConnectorRun-Methode noch einmal aufrufen, während sie noch ausgeführt wird, kann ein Fehler auftreten.