Datenspeicher für die Suche nach Gesundheitsinformationen erstellen

Wenn Sie klinische Daten in Vertex AI Search durchsuchen möchten, können Sie einen der folgenden Workflows ausführen:

  • Erstellen Sie einen Datenspeicher für Gesundheitsdaten, importieren Sie FHIR R4-Daten in den Datenspeicher, verbinden Sie ihn mit einer Anwendung zur Suche nach Gesundheitsdaten und fragen Sie die klinischen Daten ab.
  • Erstellen Sie eine Anwendung zur Suche nach Gesundheitsdaten, erstellen Sie einen Datenspeicher für Gesundheitsdaten und importieren Sie FHIR R4-Daten in den Datenspeicher während der App-Erstellung und fragen Sie die klinischen Daten ab. Weitere Informationen finden Sie unter Such-App für Gesundheitsdaten erstellen.

Auf dieser Seite wird die erste Methode beschrieben.

Häufigkeit des Datenimports

Sie können FHIR R4-Daten auf folgende Weise in einen Datenspeicher importieren:

  • Batchimport: ein einmaliger Import. Daten werden in Batches in einen Datenspeicher importiert. Weitere Informationen zu inkrementellen Importen finden Sie unter Gesundheitsdaten aktualisieren.

  • Streamingimport: ein Datenimport per Streaming nahezu in Echtzeit. Alle inkrementellen Änderungen im FHIR-Quellspeicher werden mit dem Vertex AI Search-Datenspeicher synchronisiert. Für das Streaming ist ein Daten-Connector erforderlich, der eine Art Datenspeicher ist. Wenn Sie einen Daten-Connector erstellen möchten, müssen Sie eine Sammlung einrichten. Ein Datenconnector enthält eine Entität, die auch eine Datenspeicherinstanz ist.

    Sie können das Streaming auch pausieren und fortsetzen und bei Bedarf eine manuelle Synchronisierung durchführen. Weitere Informationen finden Sie unter Gesundheitssuchdatenspeicher verwalten.

    Die Datenstreamingrate für ein bestimmtes Google Cloud Projekt hängt von den folgenden Kontingenten ab. Wenn Sie das Kontingent überschreiten, kann es zu Streamingverzögerungen kommen.

Sie können die Häufigkeit des Datenimports beim Erstellen des Datenspeichers auswählen. Diese Konfiguration kann später nicht mehr geändert werden.

Hinweise

Bevor Sie den Gesundheitsdatenspeicher erstellen und Daten darin importieren, sollten Sie Folgendes wissen:

  • Die Beziehung zwischen Apps und Datenspeichern für die Suche nach Gesundheitsdaten. Weitere Informationen finden Sie unter Apps und Datenspeicher.

  • Vorbereitung Ihrer FHIR-Daten für die Aufnahme

  • Vertex AI Search for Healthcare bietet Suchdienste nur in der US-Multiregion (us) an. Ihre Healthcare-Suchanwendung und Ihre Datenspeicher müssen sich daher in der Multiregion us befinden.

  • Wenn Sie Gesundheitsdaten aus einem Cloud Healthcare API-FHIR-Speicher in einem Google Cloud Projekt in einen Vertex AI Search-Datenspeicher in einem anderen Google Cloud Projekt importieren und VPC Service Controls verwenden, müssen sich die beiden Projekte im selben Perimeter befinden.

Datenspeicher erstellen und Daten importieren

Sie können einen Datenspeicher erstellen und Ihre FHIR R4-Daten entweder in derGoogle Cloud Console oder mit der API importieren. Dazu haben Sie folgende Möglichkeiten:

Statischen Datenspeicher erstellen und einmaligen Batch-Import durchführen

In diesem Abschnitt wird beschrieben, wie Sie einen Vertex AI Search-Datenspeicher erstellen, in dem Sie nur Batchimporte ausführen können. Sie können Batchdaten importieren, wenn Sie den Datenspeicher zum ersten Mal erstellen, und bei Bedarf inkrementelle Batchimporte durchführen.

Console

  1. Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.

    KI-Anwendungen

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

  3. Klicken Sie auf  Datenspeicher erstellen.

  4. Wählen Sie im Bereich Datenquelle auswählen die Option Healthcare API (FHIR) als Datenquelle aus.
  5. Führen Sie einen der folgenden Schritte aus, um Daten aus Ihrem FHIR-Speicher zu importieren:
    • Wählen Sie den FHIR-Speicher aus der Liste der verfügbaren FHIR-Speicher aus:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Wählen Sie in dieser Liste ein Dataset aus, das sich an einem zulässigen Standort befindet, und dann einen FHIR-Speicher, der die FHIR-Version R4 verwendet.
    • Geben Sie den FHIR-Speicher manuell ein:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Klicken Sie auf FHIR-Speicher manuell eingeben.
      3. Geben Sie im Dialogfeld FHIR-Speichername den vollständigen Namen des FHIR-Speichers im folgenden Format ein:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Klicken Sie auf Speichern.
  6. Wählen Sie im Bereich Synchronisierung eine der folgenden Optionen aus. Diese Auswahl kann nach dem Erstellen des Datenspeichers nicht mehr geändert werden.
    • Einmalig: für einen einmaligen Batchdatenimport. Weitere inkrementelle Importe finden Sie unter Gesundheitsdaten aktualisieren.
    • Streaming: zum Importieren von Streamingdaten nahezu in Echtzeit. Wenn Sie Daten streamen möchten, müssen Sie einen Datenconnector erstellen. Das ist eine Art Datenspeicher. Wenn Sie einen Streaming-Datenspeicher mit der REST API einrichten möchten, wenden Sie sich an Ihren Kundenbetreuer.
  7. Wählen Sie im Bereich Welches Schema haben diese Daten? eine der folgenden Optionen aus:
    • Von Google vordefiniertes Schema: Damit werden die von Google definierten Schemakonfigurationen wie Indexierbarkeit, Suchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente beibehalten. Nachdem Sie diese Option ausgewählt haben, können Sie das Schema nicht mehr aktualisieren, nachdem Sie den Datenspeicher erstellt haben. Wenn Sie das Schema nach dem Erstellen des Datenspeichers ändern möchten, wählen Sie die Option Benutzerdefiniertes Schema aus.
      1. Klicken Sie auf Weiter.
      2. Geben Sie im Feld Name des Datenspeichers einen Namen für den Datenspeicher ein.
      3. Klicken Sie auf Erstellen.
      4. Der von Ihnen erstellte Datenspeicher wird auf der Seite Datenspeicher aufgeführt.

    • Benutzerdefiniertes Schema: Sie können eigene Schemakonfigurationen wie Indexierbarkeit, Durchsuchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente definieren. Wenden Sie sich an Ihren Customer Engineer, um ein konfigurierbares Schema einzurichten.
      1. Klicken Sie auf Weiter.
      2. Sehen Sie sich das Schema an, maximieren Sie jedes Feld und bearbeiten Sie die Feldeinstellungen.
      3. Klicken Sie auf Neue Felder hinzufügen, um den unterstützten FHIR-Ressourcen neue Felder hinzuzufügen. Die im von Google definierten Schema enthaltenen Felder können nicht entfernt werden.
      4. Klicken Sie auf Weiter.
      5. Geben Sie im Feld Name Ihres Daten-Connectors einen Namen für den Daten-Connector ein.
      6. Klicken Sie auf Erstellen.
      7. Der von Ihnen erstellte Daten-Connector wird auf der Seite Datenspeicher aufgeführt. Der FHIR-Quellspeicher wird als Entität im Datenconnector hinzugefügt.

  8. Klicken Sie auf Weiter.

REST

  1. Datenspeicher erstellen.

    curl -X POST\
     -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \
     -d '{
        "displayName": "DATA_STORE_DISPLAY_NAME",
        "industryVertical": "HEALTHCARE_FHIR",
        "solutionTypes": ["SOLUTION_TYPE_SEARCH"],
        "searchTier": "STANDARD",
        "searchAddOns": ["LLM"],
        "healthcareFhirConfig":
          {
            "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE
          }
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • DATA_STORE_ID: Die ID des Vertex AI Search-Datenspeichers, den Sie erstellen möchten. Diese ID darf nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.
    • DATA_STORE_DISPLAY_NAME: Der Anzeigename des Vertex AI Search-Datenspeichers, den Sie erstellen möchten.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true festgelegt ist, können Sie das Datenspeicherschema mit der Methode schema.update konfigurieren.
  2. Wenn sich der FHIR-Quellspeicher und der Vertex AI Search-Zieldatenspeicher im selben Google Cloud Projekt befinden, rufen Sie die folgende Methode auf, um einen einmaligen Batchimport durchzuführen. Wenn sie sich nicht im selben Projekt befinden, fahren Sie mit dem nächsten Schritt fort.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • DATA_STORE_ID: Die ID des Vertex AI Search-Datenspeichers.
    • CLOUD_HEALTHCARE_DATASET_ID: die ID des Cloud Healthcare API-Datasets, das den Quell-FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: Der Speicherort des Cloud Healthcare API-Datasets, das den FHIR-Quellspeicher enthält.
    • FHIR_STORE_ID: die ID des FHIR R4-Speichers der Cloud Healthcare API.
  3. Wenn sich der FHIR-Quellspeicher und der Vertex AI Search-Zieldatenspeicher in verschiedenen Google Cloud Projekten befinden, rufen Sie die folgende Methode auf, um einen einmaligen Batchimport durchzuführen. Wenn sie sich im selben Projekt befinden, kehren Sie zum vorherigen Schritt zurück.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID des Google CloudProjekts, das den Vertex AI Search-Datenspeicher enthält.
    • DATA_STORE_ID: Die ID des Vertex AI Search-Datenspeichers.
    • SOURCE_PROJECT_ID: die ID des Google Cloud-Projekts, das das Cloud Healthcare API-Dataset und den FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_ID: die ID des Cloud Healthcare API-Datasets, das den Quell-FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: Der Speicherort des Cloud Healthcare API-Datasets, das den FHIR-Quellspeicher enthält.
    • FHIR_STORE_ID: die ID des FHIR R4-Speichers der Cloud Healthcare API.

Python

Weitere Informationen finden Sie in der Referenzdokumentation zur AI Applications Python API.

Richten Sie zur Authentifizierung bei AI Applications Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

Datenspeicher erstellen


from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "global"
# data_store_id = "YOUR_DATA_STORE_ID"


def create_data_store_sample(
    project_id: str,
    location: str,
    data_store_id: str,
) -> str:
    #  For more information, refer to:
    # https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
    client_options = (
        ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
        if location != "global"
        else None
    )

    # Create a client
    client = discoveryengine.DataStoreServiceClient(client_options=client_options)

    # The full resource name of the collection
    # e.g. projects/{project}/locations/{location}/collections/default_collection
    parent = client.collection_path(
        project=project_id,
        location=location,
        collection="default_collection",
    )

    data_store = discoveryengine.DataStore(
        display_name="My Data Store",
        # Options: GENERIC, MEDIA, HEALTHCARE_FHIR
        industry_vertical=discoveryengine.IndustryVertical.GENERIC,
        # Options: SOLUTION_TYPE_RECOMMENDATION, SOLUTION_TYPE_SEARCH, SOLUTION_TYPE_CHAT, SOLUTION_TYPE_GENERATIVE_CHAT
        solution_types=[discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH],
        # TODO(developer): Update content_config based on data store type.
        # Options: NO_CONTENT, CONTENT_REQUIRED, PUBLIC_WEBSITE
        content_config=discoveryengine.DataStore.ContentConfig.CONTENT_REQUIRED,
    )

    request = discoveryengine.CreateDataStoreRequest(
        parent=parent,
        data_store_id=data_store_id,
        data_store=data_store,
        # Optional: For Advanced Site Search Only
        # create_advanced_site_search=True,
    )

    # Make the request
    operation = client.create_data_store(request=request)

    print(f"Waiting for operation to complete: {operation.operation.name}")
    response = operation.result()

    # After the operation is complete,
    # get information from operation metadata
    metadata = discoveryengine.CreateDataStoreMetadata(operation.metadata)

    # Handle the response
    print(response)
    print(metadata)

    return operation.operation.name

Dokumente importieren

from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "us"
# data_store_id = "YOUR_DATA_STORE_ID"
# healthcare_project_id = "YOUR_HEALTHCARE_PROJECT_ID"
# healthcare_location = "YOUR_HEALTHCARE_LOCATION"
# healthcare_dataset_id = "YOUR_HEALTHCARE_DATASET_ID"
# healthcare_fihr_store_id = "YOUR_HEALTHCARE_FHIR_STORE_ID"

#  For more information, refer to:
# https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
client_options = (
    ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
    if location != "global"
    else None
)

# Create a client
client = discoveryengine.DocumentServiceClient(client_options=client_options)

# The full resource name of the search engine branch.
# e.g. projects/{project}/locations/{location}/dataStores/{data_store_id}/branches/{branch}
parent = client.branch_path(
    project=project_id,
    location=location,
    data_store=data_store_id,
    branch="default_branch",
)

request = discoveryengine.ImportDocumentsRequest(
    parent=parent,
    fhir_store_source=discoveryengine.FhirStoreSource(
        fhir_store=client.fhir_store_path(
            healthcare_project_id,
            healthcare_location,
            healthcare_dataset_id,
            healthcare_fihr_store_id,
        ),
    ),
    # Options: `FULL`, `INCREMENTAL`
    reconciliation_mode=discoveryengine.ImportDocumentsRequest.ReconciliationMode.INCREMENTAL,
)

# Make the request
operation = client.import_documents(request=request)

print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()

# After the operation is complete,
# get information from operation metadata
metadata = discoveryengine.ImportDocumentsMetadata(operation.metadata)

# Handle the response
print(response)
print(metadata)

Nächste Schritte

Streaming-Datenspeicher erstellen und Streaming-Import einrichten

In diesem Abschnitt wird beschrieben, wie Sie einen Streaming-Datenspeicher für Vertex AI Search erstellen, der kontinuierlich Änderungen aus Ihrem Cloud Healthcare API FHIR-Speicher streamt.

Console

  1. Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.

    KI-Anwendungen

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

  3. Klicken Sie auf  Datenspeicher erstellen.

  4. Wählen Sie im Bereich Datenquelle auswählen die Option Healthcare API (FHIR) als Datenquelle aus.
  5. Führen Sie einen der folgenden Schritte aus, um Daten aus Ihrem FHIR-Speicher zu importieren:
    • Wählen Sie den FHIR-Speicher aus der Liste der verfügbaren FHIR-Speicher aus:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Wählen Sie in dieser Liste ein Dataset aus, das sich an einem zulässigen Standort befindet, und dann einen FHIR-Speicher, der die FHIR-Version R4 verwendet.
    • Geben Sie den FHIR-Speicher manuell ein:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Klicken Sie auf FHIR-Speicher manuell eingeben.
      3. Geben Sie im Dialogfeld FHIR-Speichername den vollständigen Namen des FHIR-Speichers im folgenden Format ein:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Klicken Sie auf Speichern.
  6. Wählen Sie im Bereich Synchronisierung eine der folgenden Optionen aus. Diese Auswahl kann nach dem Erstellen des Datenspeichers nicht mehr geändert werden.
    • Einmalig: für einen einmaligen Batchdatenimport. Weitere inkrementelle Importe finden Sie unter Gesundheitsdaten aktualisieren.
    • Streaming: zum Importieren von Streamingdaten nahezu in Echtzeit. Wenn Sie Daten streamen möchten, müssen Sie einen Datenconnector erstellen. Das ist eine Art Datenspeicher. Wenn Sie einen Streaming-Datenspeicher mit der REST API einrichten möchten, wenden Sie sich an Ihren Kundenbetreuer.
  7. Wählen Sie im Bereich Welches Schema haben diese Daten? eine der folgenden Optionen aus:
    • Von Google vordefiniertes Schema: Damit werden die von Google definierten Schemakonfigurationen wie Indexierbarkeit, Suchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente beibehalten. Nachdem Sie diese Option ausgewählt haben, können Sie das Schema nicht mehr aktualisieren, nachdem Sie den Datenspeicher erstellt haben. Wenn Sie das Schema nach dem Erstellen des Datenspeichers ändern möchten, wählen Sie die Option Benutzerdefiniertes Schema aus.
      1. Klicken Sie auf Weiter.
      2. Geben Sie im Feld Name des Datenspeichers einen Namen für den Datenspeicher ein.
      3. Klicken Sie auf Erstellen.
      4. Der von Ihnen erstellte Datenspeicher wird auf der Seite Datenspeicher aufgeführt.

    • Benutzerdefiniertes Schema: Sie können eigene Schemakonfigurationen wie Indexierbarkeit, Durchsuchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente definieren. Wenden Sie sich an Ihren Customer Engineer, um ein konfigurierbares Schema einzurichten.
      1. Klicken Sie auf Weiter.
      2. Sehen Sie sich das Schema an, maximieren Sie jedes Feld und bearbeiten Sie die Feldeinstellungen.
      3. Klicken Sie auf Neue Felder hinzufügen, um den unterstützten FHIR-Ressourcen neue Felder hinzuzufügen. Die im von Google definierten Schema enthaltenen Felder können nicht entfernt werden.
      4. Klicken Sie auf Weiter.
      5. Geben Sie im Feld Name Ihres Daten-Connectors einen Namen für den Daten-Connector ein.
      6. Klicken Sie auf Erstellen.
      7. Der von Ihnen erstellte Daten-Connector wird auf der Seite Datenspeicher aufgeführt. Der FHIR-Quellspeicher wird als Entität im Datenconnector hinzugefügt.

  8. Klicken Sie auf Weiter.

REST

  1. Erstellen Sie einen Datenconnector, um das Streaming einzurichten.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/us:setUpDataConnector" \
    -d ' {
      "collectionId": "COLLECTION_ID",
      "collectionDisplayName": "COLLECTION_NAME",
      "dataConnector": {
      "dataSource": "gcp_fhir",
      "params": {
          "instance_uri": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID"
        },
        "entities": [
          {
            "entityName": "FHIR_STORE_NAME"
            "healthcareFhirConfig": {
              "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE,
              "enableStaticIndexingForBatchIngestion": STATIC_INDEXING_TRUE|FALSE
            }
          }
        ],
        "syncMode": "STREAMING"
      }
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • COLLECTION_ID: Die ID der Sammlung, in die Sie die FHIR R4-Daten streamen möchten.
    • COLLECTION_NAME: Name der Sammlung, in die Sie die FHIR R4-Daten streamen möchten.
    • SOURCE_PROJECT_ID: die ID des Google Cloud-Projekts, das das Cloud Healthcare API-Dataset und den FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_ID: die ID des Cloud Healthcare API-Datasets, das den Quell-FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: Der Speicherort des Cloud Healthcare API-Datasets, das den FHIR-Quellspeicher enthält.
    • FHIR_STORE_ID: die ID des FHIR R4-Speichers der Cloud Healthcare API.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true festgelegt ist, können Sie das Datenspeicherschema mit der Methode schema.update konfigurieren.
    • STATIC_INDEXING_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true festgelegt ist, können Sie Verlaufsdaten mit einem höheren Indexierungskontingent importieren. Das ist nützlich, wenn Sie davon ausgehen, dass Ihre Suchanwendung mit einem höheren Datenvolumen konfrontiert wird. Das Indexieren einzelner Datensätze dauert jedoch länger. Google empfiehlt dringend, dieses Feld auf true festzulegen.
    • Wenn die Sammlung erfolgreich erstellt wurde, wird der Liste der Datenspeicher auf der Seite Datenspeicher in der Google Cloud -Konsole ein Datenconnector hinzugefügt.
    • Der erstellte Datenconnector enthält eine Entität mit demselben Namen wie der FHIR R4-Speicher, aus dem Sie die Daten streamen.

Nächste Schritte

Erstellung des Datenspeichers und FHIR-Datenimport prüfen

In dieser Aufgabe erfahren Sie, wie Sie prüfen, ob ein Datenspeicher erfolgreich erstellt und FHIR-Daten erfolgreich in den Datenspeicher importiert wurden.

  • Wählen Sie in der Google Cloud Console den Datenspeicher aus und prüfen Sie seine Details.
  • Über die REST API:
    1. Verwenden Sie die Methode dataStores.get, um die Details des medizinischen Datenspeichers abzurufen.
    2. Verwenden Sie die Methode operations.get, um die Details des Importvorgangs abzurufen.

Führen Sie die folgenden Schritte aus, um die Erstellung des Datenspeichers und den Datenimport zu überprüfen.

Console

  1. Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.

    KI-Anwendungen

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google Cloud-Projekt mit ihren Details angezeigt.

  3. Prüfen Sie, ob der von Ihnen erstellte Datenspeicher oder Datenconnector in der Liste der Datenspeicher enthalten ist. In der Liste der Datenspeicher enthält ein Datenconnector, der Daten streamt, einen Datenspeicher mit demselben Namen wie der FHIR-Speicher der Cloud Healthcare API.

  4. Wählen Sie den Datenspeicher oder den Daten-Connector aus und prüfen Sie die zugehörigen Details.

    • Für einen Datenspeicher:
      • In der Zusammenfassungstabelle sind die folgenden Details aufgeführt:
        • Die Datenspeicher-ID, der Typ und die Region.
        • Die Anzahl der Dokumente gibt die Anzahl der importierten FHIR-Ressourcen an.
        • Der Zeitstempel, der angibt, wann das letzte Dokument importiert wurde.
        • Optional: Klicken Sie auf Details ansehen, um die Details zum Dokumentimport aufzurufen, z. B. Informationen zu einem erfolgreichen, teilweisen oder fehlgeschlagenen Import.
      • Auf dem Tab Dokumente werden die Ressourcen-IDs der importierten FHIR-Ressourcen und ihre Ressourcentypen in einer paginierten Tabelle aufgeführt. Sie können diese Tabelle filtern, um zu prüfen, ob eine bestimmte Ressource importiert wurde.
      • Auf dem Tab Aktivität finden Sie Details zum Dokumentimport, z. B. zu einem erfolgreichen, teilweisen oder fehlgeschlagenen Import.
    • Für einen Datenconnector:
      • In der Zusammenfassungstabelle sind die folgenden Details aufgeführt:
        • Die Sammlungs-ID, der Typ und die Region.
        • Der Name der verbundenen App.
        • Der Status des Connectors, der entweder „Aktiv“ oder „Pausiert“ ist.
      • In der Tabelle Entitäten wird die Entität im Datenconnector angezeigt. Der Name der Entität ist der Name des FHIR-Quellspeichers. Die ID der Entität ist die ID des Datenconnectors, an die der Name des FHIR-Quellspeichers angehängt wird.
        • Klicken Sie auf den Namen der Einheit, um die zugehörigen Details aufzurufen. Da eine Entität eine Datenspeicherinstanz in einem Data Connector ist, entsprechen die Entitätsdetails den Datenspeicherdetails.
  5. Auf dem Tab Schema können Sie die Attribute für die unterstützten FHIR-Ressourcen und -Elemente ansehen. Klicken Sie auf Bearbeiten, um das Schema zu konfigurieren.

REST

  1. Prüfen Sie, ob der Datenspeicher erstellt wurde.

    curl -X GET -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
     "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID"
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • DATA_STORE_ID: Die ID des Vertex AI Search-Datenspeichers.
  2. Prüfen Sie, ob der FHIR-Datenimportvorgang abgeschlossen ist.

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/operations/IMPORT_OPERATION_ID"
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die ID Ihres Google Cloud Projekts.
    • DATA_STORE_ID: Die ID des Vertex AI Search-Datenspeichers.
    • IMPORT_OPERATION_ID: Die Vorgangs-ID des Vorgangs mit langer Ausführungszeit, der zurückgegeben wird, wenn Sie die Methode import aufrufen

Nächste Schritte