Crear un almacén de datos de búsqueda de asistencia sanitaria

Para buscar datos clínicos en Vertex AI Search, puedes seguir uno de estos flujos de trabajo:

  • Crea un almacén de datos sanitarios, importa datos FHIR R4 en el almacén, conéctalo a una aplicación de búsqueda sanitaria y consulta los datos clínicos.
  • Crea una aplicación de búsqueda de datos sanitarios, crea un almacén de datos sanitarios e importa datos FHIR R4 en el almacén de datos durante el proceso de creación de la aplicación y consulta los datos clínicos. Para obtener más información, consulta el artículo Crear una aplicación de búsqueda de información sanitaria.

En esta página se describe el primer método.

Acerca de la frecuencia de importación de datos

Puede importar datos de FHIR R4 a un almacén de datos de las siguientes formas:

  • Importación por lotes: una importación única. Los datos se importan a un almacén de datos por lotes. Para obtener más información sobre las importaciones incrementales, consulta Actualizar datos sanitarios.

  • Importación de streaming: importación de datos de streaming casi en tiempo real. Los cambios incrementales que se produzcan en el almacén FHIR de origen se sincronizarán en el almacén de datos de Vertex AI Search. La transmisión requiere un conector de datos, que es un tipo de almacén de datos. Para crear un conector de datos, debe configurar una colección. Un conector de datos contiene una entidad, que también es una instancia de almacén de datos.

    También puedes pausar y reanudar la emisión, así como realizar una sincronización manual cuando sea necesario. Para obtener más información, consulta Gestionar un almacén de datos de búsqueda de atención sanitaria.

    La velocidad de streaming de datos de un Google Cloud proyecto determinado depende de las siguientes cuotas. Si superas la cuota, es posible que experimentes retrasos en la transmisión.

    • Número de escrituras pendientes de FHIR o de streaming de BigQuery por minuto. Para obtener más información, consulta Cuotas y límites.
    • Número de operaciones de lectura de FHIR por minuto y región. Para obtener más información, consulta las cuotas de FHIR de la API Cloud Healthcare.

Puedes seleccionar la frecuencia de importación de datos al crear el almacén de datos y no podrás cambiar esta configuración más adelante.

Antes de empezar

Antes de crear el almacén de datos sanitarios e importar datos en él, debes tener en cuenta lo siguiente:

  • Relación entre las aplicaciones y los almacenes de datos para la búsqueda de información sanitaria. Para obtener más información, consulta Acerca de las aplicaciones y los almacenes de datos.

  • La preparación de los datos de FHIR para la ingestión.

  • Vertex AI Search para el ámbito sanitario solo proporciona servicios de búsqueda en la multirregión de EE. UU. (us). Por lo tanto, tu aplicación de búsqueda y tus almacenes de datos del ámbito sanitario deben residir en la multirregión us.

  • Si vas a importar datos sanitarios de un almacén FHIR de la API Cloud Healthcare de un Google Cloud proyecto a un almacén de datos de Vertex AI Search de otro Google Cloud proyecto y vas a usar Controles de Servicio de VPC, los dos proyectos deben estar en el mismo perímetro.

Crear un almacén de datos e importar datos

Puedes crear un almacén de datos e importar tus datos de FHIR R4 en laGoogle Cloud consola o mediante la API con los siguientes métodos:

Crear un almacén de datos estático y realizar una importación por lotes única

En esta sección se describe cómo crear un almacén de datos de Vertex AI Search en el que solo se pueden realizar importaciones por lotes. Puedes importar datos por lotes cuando crees el almacén de datos por primera vez y realizar importaciones por lotes incrementales siempre que sea necesario.

Consola

  1. En la Google Cloud consola, ve a la página Aplicaciones de IA.

    Aplicaciones de IA

  2. En el menú de navegación, haga clic en Almacenes de datos.

  3. Haz clic en Crear almacén de datos.

  4. En el panel Seleccionar una fuente de datos, elija API Healthcare (FHIR) como fuente de datos.
  5. Para importar datos de tu almacén FHIR, haz una de las siguientes acciones:
    • Seleccione el almacén FHIR de la lista de almacenes FHIR disponibles:
      1. Despliega el campo Almacén FHIR.
      2. En esta lista, seleccione un conjunto de datos que se encuentre en una ubicación permitida y, a continuación, un almacén FHIR que use la versión R4 de FHIR.
    • Introduce el almacén FHIR manualmente:
      1. Despliega el campo Almacén FHIR.
      2. Haz clic en Enter FHIR store manually (Introducir almacén de FHIR manualmente).
      3. En el cuadro de diálogo Nombre del almacén FHIR, introduce el nombre completo del almacén FHIR con el siguiente formato:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Haz clic en Guardar.
  6. En la sección Sincronización, seleccione una de las siguientes opciones. Esta selección no se puede cambiar una vez creado el almacén de datos.
    • Una vez: para realizar una importación de datos en lote única. Para obtener más información sobre las importaciones incrementales, consulta Actualizar datos sanitarios.
    • Streaming: para importar datos de streaming casi en tiempo real. Para transmitir datos, debes crear un conector de datos, que es un tipo de almacén de datos. Para configurar un almacén de datos de streaming con la API REST, póngase en contacto con su ingeniero de clientes.
  7. En la sección ¿Cuál es el esquema de estos datos?, seleccione una de estas opciones:
    • Esquema predefinido de Google: para conservar las configuraciones del esquema definido por Google, como la indexabilidad, la capacidad de búsqueda y la capacidad de recuperación, de los recursos y elementos de FHIR admitidos. Una vez que hayas seleccionado esta opción, no podrás actualizar el esquema después de crear el almacén de datos. Si quiere poder cambiar el esquema después de crear el almacén de datos, seleccione la opción Esquema personalizado.
      1. Haz clic en Continuar.
      2. En el campo Nombre de tu almacén de datos, escribe el nombre que quieras darle.
      3. Haz clic en Crear.
      4. El almacén de datos que ha creado se muestra en la página Almacenes de datos.

    • Esquema personalizado: para definir tus propias configuraciones de esquema, como la indexabilidad, la capacidad de búsqueda y la capacidad de recuperación, de los recursos y elementos de FHIR admitidos. Para configurar un esquema configurable, ponte en contacto con tu ingeniero de clientes.
      1. Haz clic en Continuar.
      2. Revisa el esquema, despliega cada campo y edita la configuración del campo.
      3. Haga clic en Añadir campos para añadir campos a los recursos FHIR admitidos. No puedes quitar los campos proporcionados en el esquema definido por Google.
      4. Haz clic en Continuar.
      5. En el campo Nombre del conector de datos, introduce un nombre para el conector de datos.
      6. Haz clic en Crear.
      7. El conector de datos que ha creado se muestra en la página Almacenes de datos. El almacén FHIR de origen se añade como una entidad en el conector de datos.

  8. Haz clic en Continuar.

REST

  1. Crea un almacén de datos.

    curl -X POST\
     -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \
     -d '{
        "displayName": "DATA_STORE_DISPLAY_NAME",
        "industryVertical": "HEALTHCARE_FHIR",
        "solutionTypes": ["SOLUTION_TYPE_SEARCH"],
        "searchTier": "STANDARD",
        "searchAddOns": ["LLM"],
        "healthcareFhirConfig":
          {
            "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE
          }
    }'
    

    Haz los cambios siguientes:

    • PROJECT_ID: el ID de tu proyecto de Google Cloud .
    • DATA_STORE_ID: el ID del almacén de datos de Vertex AI Search que quieres crear. Este ID solo puede contener letras en minúscula, números, guiones bajos y guiones.
    • DATA_STORE_DISPLAY_NAME: el nombre visible del almacén de datos de Vertex AI Search que quieres crear.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: un valor booleano que, cuando se define como true, te permite configurar el esquema del almacén de datos mediante el método schema.update.
  2. Si el almacén FHIR de origen y el almacén de datos de Vertex AI Search de destino están en el mismo proyecto Google Cloud , llama al siguiente método para realizar una importación por lotes única. Si no están en el mismo proyecto, ve al siguiente paso.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Haz los cambios siguientes:

    • PROJECT_ID: el ID de tu proyecto de Google Cloud .
    • DATA_STORE_ID: el ID del almacén de datos de Vertex AI Search.
    • CLOUD_HEALTHCARE_DATASET_ID: el ID del conjunto de datos de la API de Cloud Healthcare que contiene el almacén FHIR de origen.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: la ubicación del conjunto de datos de la API de Cloud Healthcare que contiene el almacén FHIR de origen.
    • FHIR_STORE_ID: el ID del almacén FHIR R4 de la API de Cloud Healthcare.
  3. Si el almacén FHIR de origen y el almacén de datos de Vertex AI Search de destino están en proyectos Google Cloud diferentes, llama al siguiente método para realizar una importación por lotes única. Si están en el mismo proyecto, vuelve al paso anterior.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Haz los cambios siguientes:

    • PROJECT_ID: el ID del proyecto Google Cloud que contiene el almacén de datos de Vertex AI Search.
    • DATA_STORE_ID: el ID del almacén de datos de Vertex AI Search.
    • SOURCE_PROJECT_ID: el ID del proyecto Google Cloud que contiene el conjunto de datos y el almacén FHIR de la API de Cloud Healthcare.
    • CLOUD_HEALTHCARE_DATASET_ID: el ID del conjunto de datos de la API de Cloud Healthcare que contiene el almacén FHIR de origen.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: la ubicación del conjunto de datos de la API de Cloud Healthcare que contiene el almacén FHIR de origen.
    • FHIR_STORE_ID: el ID del almacén FHIR R4 de la API de Cloud Healthcare.

Python

Para obtener más información, consulta la documentación de referencia de la API AI Applications Python.

Para autenticarte en las aplicaciones de IA, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.

Crear un almacén de datos


from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "global"
# data_store_id = "YOUR_DATA_STORE_ID"


def create_data_store_sample(
    project_id: str,
    location: str,
    data_store_id: str,
) -> str:
    #  For more information, refer to:
    # https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
    client_options = (
        ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
        if location != "global"
        else None
    )

    # Create a client
    client = discoveryengine.DataStoreServiceClient(client_options=client_options)

    # The full resource name of the collection
    # e.g. projects/{project}/locations/{location}/collections/default_collection
    parent = client.collection_path(
        project=project_id,
        location=location,
        collection="default_collection",
    )

    data_store = discoveryengine.DataStore(
        display_name="My Data Store",
        # Options: GENERIC, MEDIA, HEALTHCARE_FHIR
        industry_vertical=discoveryengine.IndustryVertical.GENERIC,
        # Options: SOLUTION_TYPE_RECOMMENDATION, SOLUTION_TYPE_SEARCH, SOLUTION_TYPE_CHAT, SOLUTION_TYPE_GENERATIVE_CHAT
        solution_types=[discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH],
        # TODO(developer): Update content_config based on data store type.
        # Options: NO_CONTENT, CONTENT_REQUIRED, PUBLIC_WEBSITE
        content_config=discoveryengine.DataStore.ContentConfig.CONTENT_REQUIRED,
    )

    request = discoveryengine.CreateDataStoreRequest(
        parent=parent,
        data_store_id=data_store_id,
        data_store=data_store,
        # Optional: For Advanced Site Search Only
        # create_advanced_site_search=True,
    )

    # Make the request
    operation = client.create_data_store(request=request)

    print(f"Waiting for operation to complete: {operation.operation.name}")
    response = operation.result()

    # After the operation is complete,
    # get information from operation metadata
    metadata = discoveryengine.CreateDataStoreMetadata(operation.metadata)

    # Handle the response
    print(response)
    print(metadata)

    return operation.operation.name

Importar documentos

from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "us"
# data_store_id = "YOUR_DATA_STORE_ID"
# healthcare_project_id = "YOUR_HEALTHCARE_PROJECT_ID"
# healthcare_location = "YOUR_HEALTHCARE_LOCATION"
# healthcare_dataset_id = "YOUR_HEALTHCARE_DATASET_ID"
# healthcare_fihr_store_id = "YOUR_HEALTHCARE_FHIR_STORE_ID"

#  For more information, refer to:
# https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
client_options = (
    ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
    if location != "global"
    else None
)

# Create a client
client = discoveryengine.DocumentServiceClient(client_options=client_options)

# The full resource name of the search engine branch.
# e.g. projects/{project}/locations/{location}/dataStores/{data_store_id}/branches/{branch}
parent = client.branch_path(
    project=project_id,
    location=location,
    data_store=data_store_id,
    branch="default_branch",
)

request = discoveryengine.ImportDocumentsRequest(
    parent=parent,
    fhir_store_source=discoveryengine.FhirStoreSource(
        fhir_store=client.fhir_store_path(
            healthcare_project_id,
            healthcare_location,
            healthcare_dataset_id,
            healthcare_fihr_store_id,
        ),
    ),
    # Options: `FULL`, `INCREMENTAL`
    reconciliation_mode=discoveryengine.ImportDocumentsRequest.ReconciliationMode.INCREMENTAL,
)

# Make the request
operation = client.import_documents(request=request)

print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()

# After the operation is complete,
# get information from operation metadata
metadata = discoveryengine.ImportDocumentsMetadata(operation.metadata)

# Handle the response
print(response)
print(metadata)

Siguientes pasos

Crear un almacén de datos de streaming y configurar una importación de streaming

En esta sección se describe cómo crear un almacén de datos de Vertex AI Search de streaming que transmita continuamente los cambios de tu almacén FHIR de la API Cloud Healthcare.

Consola

  1. En la Google Cloud consola, ve a la página Aplicaciones de IA.

    Aplicaciones de IA

  2. En el menú de navegación, haga clic en Almacenes de datos.

  3. Haz clic en Crear almacén de datos.

  4. En el panel Seleccionar una fuente de datos, elija API Healthcare (FHIR) como fuente de datos.
  5. Para importar datos de tu almacén FHIR, haz una de las siguientes acciones:
    • Seleccione el almacén FHIR de la lista de almacenes FHIR disponibles:
      1. Despliega el campo Almacén FHIR.
      2. En esta lista, seleccione un conjunto de datos que se encuentre en una ubicación permitida y, a continuación, un almacén FHIR que use la versión R4 de FHIR.
    • Introduce el almacén FHIR manualmente:
      1. Despliega el campo Almacén FHIR.
      2. Haz clic en Enter FHIR store manually (Introducir almacén de FHIR manualmente).
      3. En el cuadro de diálogo Nombre del almacén FHIR, introduce el nombre completo del almacén FHIR con el siguiente formato:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Haz clic en Guardar.
  6. En la sección Sincronización, seleccione una de las siguientes opciones. Esta selección no se puede cambiar una vez creado el almacén de datos.
    • Una vez: para realizar una importación de datos en lote única. Para obtener más información sobre las importaciones incrementales, consulta Actualizar datos sanitarios.
    • Streaming: para importar datos de streaming casi en tiempo real. Para transmitir datos, debes crear un conector de datos, que es un tipo de almacén de datos. Para configurar un almacén de datos de streaming con la API REST, póngase en contacto con su ingeniero de clientes.
  7. En la sección ¿Cuál es el esquema de estos datos?, seleccione una de estas opciones:
    • Esquema predefinido de Google: para conservar las configuraciones del esquema definido por Google, como la indexabilidad, la capacidad de búsqueda y la capacidad de recuperación, de los recursos y elementos de FHIR admitidos. Una vez que hayas seleccionado esta opción, no podrás actualizar el esquema después de crear el almacén de datos. Si quiere poder cambiar el esquema después de crear el almacén de datos, seleccione la opción Esquema personalizado.
      1. Haz clic en Continuar.
      2. En el campo Nombre de tu almacén de datos, escribe el nombre que quieras darle.
      3. Haz clic en Crear.
      4. El almacén de datos que ha creado se muestra en la página Almacenes de datos.

    • Esquema personalizado: para definir tus propias configuraciones de esquema, como la indexabilidad, la capacidad de búsqueda y la capacidad de recuperación, de los recursos y elementos de FHIR admitidos. Para configurar un esquema configurable, ponte en contacto con tu ingeniero de clientes.
      1. Haz clic en Continuar.
      2. Revisa el esquema, despliega cada campo y edita la configuración del campo.
      3. Haga clic en Añadir campos para añadir campos a los recursos FHIR admitidos. No puedes quitar los campos proporcionados en el esquema definido por Google.
      4. Haz clic en Continuar.
      5. En el campo Nombre del conector de datos, introduce un nombre para el conector de datos.
      6. Haz clic en Crear.
      7. El conector de datos que ha creado se muestra en la página Almacenes de datos. El almacén FHIR de origen se añade como una entidad en el conector de datos.

  8. Haz clic en Continuar.

REST

  1. Crea un conector de datos para configurar la transmisión.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/us:setUpDataConnector" \
    -d ' {
      "collectionId": "COLLECTION_ID",
      "collectionDisplayName": "COLLECTION_NAME",
      "dataConnector": {
      "dataSource": "gcp_fhir",
      "params": {
          "instance_uri": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID"
        },
        "entities": [
          {
            "entityName": "FHIR_STORE_NAME"
            "healthcareFhirConfig": {
              "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE,
              "enableStaticIndexingForBatchIngestion": STATIC_INDEXING_TRUE|FALSE
            }
          }
        ],
        "syncMode": "STREAMING"
      }
    }'
    

    Haz los cambios siguientes:

    • PROJECT_ID: el ID de tu proyecto de Google Cloud .
    • COLLECTION_ID: el ID de la colección a la que quiere enviar los datos de FHIR R4.
    • COLLECTION_NAME: nombre de la colección a la que quieras enviar los datos FHIR R4.
    • SOURCE_PROJECT_ID: el ID del proyecto Google Cloud que contiene el conjunto de datos y el almacén FHIR de la API de Cloud Healthcare.
    • CLOUD_HEALTHCARE_DATASET_ID: el ID del conjunto de datos de la API de Cloud Healthcare que contiene el almacén FHIR de origen.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: la ubicación del conjunto de datos de la API de Cloud Healthcare que contiene el almacén FHIR de origen.
    • FHIR_STORE_ID: el ID del almacén FHIR R4 de la API de Cloud Healthcare.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: un valor booleano que, cuando se define como true, te permite configurar el esquema del almacén de datos mediante el método schema.update.
    • STATIC_INDEXING_TRUE|FALSE: valor booleano que, cuando se define como true, te permite importar datos históricos con una cuota de indexación más alta. Esto resulta útil cuando prevés que tu aplicación de búsqueda va a recibir un mayor volumen de datos. Sin embargo, los registros individuales tardan más en indexarse. Google recomienda que asignes a este campo el valor true.
    • Si la colección se crea correctamente, se añade un conector de datos a la lista de almacenes de datos de la página Almacenes de datos de la consola Google Cloud .
    • El conector de datos creado contiene una entidad que tiene el mismo nombre que el almacén FHIR R4 del que estás transmitiendo los datos.

Siguientes pasos

Verificar la creación del almacén de datos y la importación de datos FHIR

En esta tarea se muestra cómo verificar si se ha creado un almacén de datos correctamente y si se han importado datos de FHIR en él correctamente.

  • En la Google Cloud consola: selecciona el almacén de datos y verifica sus detalles.
  • A través de la API REST:
    1. Usa el método dataStores.get para obtener los detalles del almacén de datos sanitarios.
    2. Usa el método operations.get para obtener los detalles de la operación de importación.

Para verificar que se ha creado el almacén de datos y que se han importado los datos, siga estos pasos.

Consola

  1. En la Google Cloud consola, ve a la página Aplicaciones de IA.

    Aplicaciones de IA

  2. En el menú de navegación, haga clic en Almacenes de datos.

    En la página Data Stores (Almacenes de datos) se muestra una lista de los almacenes de datos de tu proyecto Google Cloud con sus detalles.

  3. Compruebe si el almacén de datos o el conector de datos que ha creado se encuentra en la lista de almacenes de datos. En la lista de almacenes de datos, un conector de datos que transmite datos contiene un almacén de datos que tiene el mismo nombre que el almacén FHIR de la API Cloud Healthcare.

  4. Seleccione el almacén de datos o el conector de datos y verifique sus detalles.

    • Para un almacén de datos:
      • En la tabla de resumen se muestran los siguientes detalles:
        • El ID, el tipo y la región del almacén de datos.
        • El número de documentos que indica el número de recursos FHIR importados.
        • Marca de tiempo de la última vez que se importó un documento.
        • También puedes hacer clic en Ver detalles para consultar los detalles de la importación del documento, como si se ha completado correctamente, parcialmente o si ha fallado.
      • En la pestaña Documentos se muestran los IDs de los recursos FHIR importados y sus tipos de recursos en una tabla paginada. Puede filtrar esta tabla para comprobar si se ha importado un recurso concreto.
      • En la pestaña Actividad se muestran los detalles de la importación del documento, como los detalles sobre una importación correcta, parcial o fallida.
    • Para un conector de datos:
      • En la tabla de resumen se muestran los siguientes detalles:
        • El ID, el tipo y la región de la colección.
        • Nombre de la aplicación conectada.
        • El estado del conector, que puede ser activo o en pausa.
      • En la tabla Entidades se muestra la entidad del conector de datos. El nombre de la entidad es el nombre del almacén FHIR de origen. El ID de la entidad es el ID del conector de datos seguido del nombre del almacén FHIR de origen.
        • Haga clic en el nombre de la entidad para ver sus detalles. Como una entidad es una instancia de almacén de datos de un conector de datos, sus detalles son los mismos que los de un almacén de datos.
  5. En la pestaña Esquema, consulta las propiedades de los recursos y elementos de FHIR admitidos. Haz clic en Editar para configurar el esquema.

REST

  1. Verifica que se ha creado el almacén de datos.

    curl -X GET -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
     "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID"
    

    Haz los cambios siguientes:

    • PROJECT_ID: el ID de tu proyecto de Google Cloud .
    • DATA_STORE_ID: el ID del almacén de datos de Vertex AI Search.
  2. Verifica si se ha completado la operación de importación de datos FHIR.

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/operations/IMPORT_OPERATION_ID"
    

    Haz los cambios siguientes:

    • PROJECT_ID: el ID de tu proyecto de Google Cloud .
    • DATA_STORE_ID: el ID del almacén de datos de Vertex AI Search.
    • IMPORT_OPERATION_ID: el ID de operación de la operación de larga duración que se devuelve al llamar al método import

Siguientes pasos