Membuat penyimpanan data penelusuran layanan kesehatan

Untuk menelusuri data klinis di Vertex AI Search, Anda dapat mengikuti salah satu alur kerja berikut:

  • Buat penyimpanan data layanan kesehatan, impor data FHIR R4 ke penyimpanan data, hubungkan ke aplikasi penelusuran layanan kesehatan, dan kueri data klinis.
  • Buat aplikasi penelusuran layanan kesehatan, buat penyimpanan data layanan kesehatan, dan impor data FHIR R4 ke penyimpanan data selama proses pembuatan aplikasi, lalu kueri data klinis. Untuk mengetahui informasi selengkapnya, lihat Membuat aplikasi penelusuran layanan kesehatan.

Halaman ini menjelaskan metode pertama.

Tentang frekuensi impor data

Anda dapat mengimpor data FHIR R4 ke penyimpanan data dengan cara berikut:

  • Impor batch: impor satu kali. Data diimpor ke penyimpanan data dalam batch. Untuk impor inkremental lebih lanjut, lihat Memuat ulang data kesehatan.

  • Impor streaming: impor data streaming hampir real-time. Setiap perubahan inkremental di penyimpanan FHIR sumber disinkronkan di penyimpanan data Vertex AI Search. Streaming memerlukan konektor data, yang merupakan jenis penyimpanan data. Untuk membuat konektor data, Anda harus menyiapkan pengumpulan data. Konektor data berisi entitas, yang juga merupakan instance penyimpanan data.

    Anda juga dapat menjeda dan melanjutkan streaming serta melakukan sinkronisasi manual kapan pun diperlukan. Untuk mengetahui informasi selengkapnya, lihat Mengelola penyimpanan data penelusuran layanan kesehatan.

    Kecepatan streaming data untuk project Google Cloud tertentu bergantung pada kuota berikut. Jika melebihi kuota, Anda mungkin mengalami penundaan streaming.

    • Jumlah penulisan streaming FHIR atau BigQuery yang tertunda per menit. Untuk mengetahui informasi selengkapnya, lihat Kuota dan batas.
    • Jumlah operasi baca FHIR per menit per region. Untuk mengetahui informasi selengkapnya, lihat Kuota FHIR Cloud Healthcare API.

Anda dapat memilih frekuensi impor data pada saat pembuatan penyimpanan data dan Anda tidak dapat mengubah konfigurasi ini nanti.

Sebelum memulai

Sebelum membuat penyimpanan data layanan kesehatan dan mengimpor data ke dalamnya, pahami hal-hal berikut:

  • Hubungan antara aplikasi dan penyimpanan data untuk penelusuran layanan kesehatan. Untuk mengetahui informasi selengkapnya, lihat Tentang aplikasi dan penyimpanan data.

  • Persiapan data FHIR Anda untuk penyerapan.

  • Vertex AI Search untuk layanan kesehatan hanya menyediakan layanan penelusuran di multi-region AS (us). Oleh karena itu, aplikasi penelusuran layanan kesehatan dan penyimpanan data Anda harus berada di multi-region us.

  • Jika Anda mengimpor data layanan kesehatan dari penyimpanan FHIR Cloud Healthcare API di satu Google Cloud project ke penyimpanan data Vertex AI Search di project Google Cloud lain dan Anda menggunakan Kontrol Layanan VPC, kedua project harus berada di perimeter yang sama.

Membuat penyimpanan data dan mengimpor data Anda

Anda dapat membuat penyimpanan data dan mengimpor data FHIR R4 di konsolGoogle Cloud atau menggunakan API dengan pendekatan berikut:

Membuat penyimpanan data statis dan melakukan impor batch satu kali

Bagian ini menjelaskan cara membuat penyimpanan data Vertex AI Search yang hanya dapat digunakan untuk melakukan impor batch. Anda dapat mengimpor data batch saat pertama kali membuat penyimpanan data dan melakukan impor batch inkremental jika diperlukan.

Konsol

  1. Di konsol Google Cloud , buka halaman AI Applications.

    Aplikasi AI

  2. Di menu navigasi, klik Data Stores.

  3. Klik Buat penyimpanan data.

  4. Di panel Select a data source, pilih Healthcare API (FHIR) sebagai sumber data Anda.
  5. Untuk mengimpor data dari penyimpanan FHIR, lakukan salah satu hal berikut:
    • Pilih FHIR store dari daftar FHIR store yang tersedia:
      1. Perluas kolom FHIR store.
      2. Dalam daftar ini, pilih set data yang berada di lokasi yang diizinkan dan lalu pilih penyimpanan FHIR yang menggunakan FHIR versi R4.
    • Masukkan penyimpanan FHIR secara manual:
      1. Perluas kolom FHIR store.
      2. Klik Enter FHIR store manually.
      3. Dalam dialog FHIR store name, masukkan nama lengkap penyimpanan FHIR dalam format berikut:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Klik Simpan.
  6. Di bagian Sinkronisasi, pilih salah satu opsi berikut. Pilihan ini tidak dapat diubah setelah penyimpanan data dibuat.
    • Satu kali: untuk melakukan impor data batch satu kali. Untuk impor inkremental selanjutnya, lihat Memuat ulang data kesehatan.
    • Streaming: untuk melakukan impor data streaming hampir real-time. Untuk mengalirkan data, Anda harus membuat konektor data, yang merupakan jenis penyimpanan data. Untuk menyiapkan penyimpanan data streaming menggunakan REST API, hubungi customer engineer Anda.
  7. Di bagian What is the schema for this data?, pilih salah satu opsi berikut:
    • Skema yang telah ditentukan Google: untuk mempertahankan konfigurasi skema yang ditentukan Google, seperti kemampuan pengindeksan, kemampuan penelusuran, dan kemampuan pengambilan, untuk elemen dan resource FHIR yang didukung. Setelah memilih opsi ini, Anda tidak dapat memperbarui skema setelah membuat penyimpanan data. Jika Anda ingin dapat mengubah skema setelah pembuatan penyimpanan data, pilih opsi Skema kustom.
      1. Klik Lanjutkan.
      2. Di kolom Nama penyimpanan data Anda, masukkan nama untuk penyimpanan data Anda.
      3. Klik Buat.
      4. Penyimpanan data yang Anda buat tercantum di halaman Data Stores.

    • Skema kustom: untuk menentukan konfigurasi skema Anda sendiri, seperti kemampuan pengindeksan, kemampuan penelusuran, dan kemampuan pengambilan, untuk elemen dan resource FHIR yang didukung. Untuk menyiapkan skema yang dapat dikonfigurasi, hubungi customer engineer Anda.
      1. Klik Lanjutkan.
      2. Tinjau skema, luaskan setiap kolom, dan edit setelan kolom.
      3. Klik Tambahkan kolom baru untuk menambahkan kolom baru pada resource FHIR yang didukung. Anda tidak dapat menghapus kolom yang disediakan dalam skema yang ditentukan Google.
      4. Klik Lanjutkan.
      5. Di kolom Nama konektor data Anda, masukkan nama untuk konektor data Anda.
      6. Klik Buat.
      7. Konektor data yang Anda buat akan tercantum di halaman Data Stores. Penyimpanan FHIR sumber ditambahkan sebagai entitas dalam konektor data.

  8. Klik Lanjutkan.

REST

  1. Buat penyimpanan data.

    curl -X POST\
     -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \
     -d '{
        "displayName": "DATA_STORE_DISPLAY_NAME",
        "industryVertical": "HEALTHCARE_FHIR",
        "solutionTypes": ["SOLUTION_TYPE_SEARCH"],
        "searchTier": "STANDARD",
        "searchAddOns": ["LLM"],
        "healthcareFhirConfig":
          {
            "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE
          }
    }'
    

    Ganti kode berikut:

    • PROJECT_ID: ID Google Cloud project Anda.
    • DATA_STORE_ID: ID penyimpanan data Vertex AI Search yang ingin Anda buat. ID ini hanya boleh berisi huruf kecil, angka, garis bawah, dan tanda hubung.
    • DATA_STORE_DISPLAY_NAME: nama tampilan penyimpanan data Vertex AI Search yang ingin Anda buat.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: boolean saat disetel ke true memungkinkan Anda mengonfigurasi skema penyimpanan data menggunakan metode schema.update.
  2. Jika penyimpanan FHIR sumber dan penyimpanan data Vertex AI Search target berada di project yang sama Google Cloud , panggil metode berikut untuk melakukan impor batch satu kali. Jika tidak berada dalam project yang sama, lanjutkan ke langkah berikutnya.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Ganti kode berikut:

    • PROJECT_ID: ID Google Cloud project Anda.
    • DATA_STORE_ID: ID penyimpanan data Vertex AI Search.
    • CLOUD_HEALTHCARE_DATASET_ID: ID set data Cloud Healthcare API yang berisi penyimpanan FHIR sumber.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: lokasi set data Cloud Healthcare API yang berisi penyimpanan FHIR sumber.
    • FHIR_STORE_ID: ID penyimpanan FHIR R4 Cloud Healthcare API.
  3. Jika penyimpanan FHIR sumber dan penyimpanan data Vertex AI Search target berada di project yang berbeda Google Cloud , panggil metode berikut untuk melakukan impor batch satu kali. Jika berada dalam project yang sama, kembali ke langkah sebelumnya.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Ganti kode berikut:

    • PROJECT_ID: ID project Google Cloud yang berisi penyimpanan data Vertex AI Search.
    • DATA_STORE_ID: ID penyimpanan data Vertex AI Search.
    • SOURCE_PROJECT_ID: ID project Google Cloud yang berisi set data dan penyimpanan FHIR Cloud Healthcare API.
    • CLOUD_HEALTHCARE_DATASET_ID: ID set data Cloud Healthcare API yang berisi penyimpanan FHIR sumber.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: lokasi set data Cloud Healthcare API yang berisi penyimpanan FHIR sumber.
    • FHIR_STORE_ID: ID penyimpanan FHIR R4 Cloud Healthcare API.

Python

Untuk mengetahui informasi selengkapnya, lihat dokumentasi referensi API Python Aplikasi AI.

Untuk melakukan autentikasi ke Aplikasi AI, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, lihat Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

Membuat penyimpanan data


from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "global"
# data_store_id = "YOUR_DATA_STORE_ID"


def create_data_store_sample(
    project_id: str,
    location: str,
    data_store_id: str,
) -> str:
    #  For more information, refer to:
    # https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
    client_options = (
        ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
        if location != "global"
        else None
    )

    # Create a client
    client = discoveryengine.DataStoreServiceClient(client_options=client_options)

    # The full resource name of the collection
    # e.g. projects/{project}/locations/{location}/collections/default_collection
    parent = client.collection_path(
        project=project_id,
        location=location,
        collection="default_collection",
    )

    data_store = discoveryengine.DataStore(
        display_name="My Data Store",
        # Options: GENERIC, MEDIA, HEALTHCARE_FHIR
        industry_vertical=discoveryengine.IndustryVertical.GENERIC,
        # Options: SOLUTION_TYPE_RECOMMENDATION, SOLUTION_TYPE_SEARCH, SOLUTION_TYPE_CHAT, SOLUTION_TYPE_GENERATIVE_CHAT
        solution_types=[discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH],
        # TODO(developer): Update content_config based on data store type.
        # Options: NO_CONTENT, CONTENT_REQUIRED, PUBLIC_WEBSITE
        content_config=discoveryengine.DataStore.ContentConfig.CONTENT_REQUIRED,
    )

    request = discoveryengine.CreateDataStoreRequest(
        parent=parent,
        data_store_id=data_store_id,
        data_store=data_store,
        # Optional: For Advanced Site Search Only
        # create_advanced_site_search=True,
    )

    # Make the request
    operation = client.create_data_store(request=request)

    print(f"Waiting for operation to complete: {operation.operation.name}")
    response = operation.result()

    # After the operation is complete,
    # get information from operation metadata
    metadata = discoveryengine.CreateDataStoreMetadata(operation.metadata)

    # Handle the response
    print(response)
    print(metadata)

    return operation.operation.name

Mengimpor dokumen

from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "us"
# data_store_id = "YOUR_DATA_STORE_ID"
# healthcare_project_id = "YOUR_HEALTHCARE_PROJECT_ID"
# healthcare_location = "YOUR_HEALTHCARE_LOCATION"
# healthcare_dataset_id = "YOUR_HEALTHCARE_DATASET_ID"
# healthcare_fihr_store_id = "YOUR_HEALTHCARE_FHIR_STORE_ID"

#  For more information, refer to:
# https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
client_options = (
    ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
    if location != "global"
    else None
)

# Create a client
client = discoveryengine.DocumentServiceClient(client_options=client_options)

# The full resource name of the search engine branch.
# e.g. projects/{project}/locations/{location}/dataStores/{data_store_id}/branches/{branch}
parent = client.branch_path(
    project=project_id,
    location=location,
    data_store=data_store_id,
    branch="default_branch",
)

request = discoveryengine.ImportDocumentsRequest(
    parent=parent,
    fhir_store_source=discoveryengine.FhirStoreSource(
        fhir_store=client.fhir_store_path(
            healthcare_project_id,
            healthcare_location,
            healthcare_dataset_id,
            healthcare_fihr_store_id,
        ),
    ),
    # Options: `FULL`, `INCREMENTAL`
    reconciliation_mode=discoveryengine.ImportDocumentsRequest.ReconciliationMode.INCREMENTAL,
)

# Make the request
operation = client.import_documents(request=request)

print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()

# After the operation is complete,
# get information from operation metadata
metadata = discoveryengine.ImportDocumentsMetadata(operation.metadata)

# Handle the response
print(response)
print(metadata)

Langkah berikutnya

Membuat penyimpanan data streaming dan menyiapkan impor streaming

Bagian ini menjelaskan cara membuat penyimpanan data Vertex AI Search streaming yang terus-menerus melakukan streaming perubahan dari penyimpanan FHIR Cloud Healthcare API Anda.

Konsol

  1. Di konsol Google Cloud , buka halaman AI Applications.

    Aplikasi AI

  2. Di menu navigasi, klik Data Stores.

  3. Klik Buat penyimpanan data.

  4. Di panel Select a data source, pilih Healthcare API (FHIR) sebagai sumber data Anda.
  5. Untuk mengimpor data dari penyimpanan FHIR, lakukan salah satu hal berikut:
    • Pilih FHIR store dari daftar FHIR store yang tersedia:
      1. Perluas kolom FHIR store.
      2. Dalam daftar ini, pilih set data yang berada di lokasi yang diizinkan dan lalu pilih penyimpanan FHIR yang menggunakan FHIR versi R4.
    • Masukkan penyimpanan FHIR secara manual:
      1. Perluas kolom FHIR store.
      2. Klik Enter FHIR store manually.
      3. Dalam dialog FHIR store name, masukkan nama lengkap penyimpanan FHIR dalam format berikut:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Klik Simpan.
  6. Di bagian Sinkronisasi, pilih salah satu opsi berikut. Pilihan ini tidak dapat diubah setelah penyimpanan data dibuat.
    • Satu kali: untuk melakukan impor data batch satu kali. Untuk impor inkremental selanjutnya, lihat Memuat ulang data kesehatan.
    • Streaming: untuk melakukan impor data streaming hampir real-time. Untuk mengalirkan data, Anda harus membuat konektor data, yang merupakan jenis penyimpanan data. Untuk menyiapkan penyimpanan data streaming menggunakan REST API, hubungi customer engineer Anda.
  7. Di bagian What is the schema for this data?, pilih salah satu opsi berikut:
    • Skema yang telah ditentukan Google: untuk mempertahankan konfigurasi skema yang ditentukan Google, seperti kemampuan pengindeksan, kemampuan penelusuran, dan kemampuan pengambilan, untuk elemen dan resource FHIR yang didukung. Setelah memilih opsi ini, Anda tidak dapat memperbarui skema setelah membuat penyimpanan data. Jika Anda ingin dapat mengubah skema setelah pembuatan penyimpanan data, pilih opsi Skema kustom.
      1. Klik Lanjutkan.
      2. Di kolom Nama penyimpanan data Anda, masukkan nama untuk penyimpanan data Anda.
      3. Klik Buat.
      4. Penyimpanan data yang Anda buat tercantum di halaman Data Stores.

    • Skema kustom: untuk menentukan konfigurasi skema Anda sendiri, seperti kemampuan pengindeksan, kemampuan penelusuran, dan kemampuan pengambilan, untuk elemen dan resource FHIR yang didukung. Untuk menyiapkan skema yang dapat dikonfigurasi, hubungi customer engineer Anda.
      1. Klik Lanjutkan.
      2. Tinjau skema, luaskan setiap kolom, dan edit setelan kolom.
      3. Klik Tambahkan kolom baru untuk menambahkan kolom baru pada resource FHIR yang didukung. Anda tidak dapat menghapus kolom yang disediakan dalam skema yang ditentukan Google.
      4. Klik Lanjutkan.
      5. Di kolom Nama konektor data Anda, masukkan nama untuk konektor data Anda.
      6. Klik Buat.
      7. Konektor data yang Anda buat akan tercantum di halaman Data Stores. Penyimpanan FHIR sumber ditambahkan sebagai entitas dalam konektor data.

  8. Klik Lanjutkan.

REST

  1. Buat konektor data untuk menyiapkan streaming.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/us:setUpDataConnector" \
    -d ' {
      "collectionId": "COLLECTION_ID",
      "collectionDisplayName": "COLLECTION_NAME",
      "dataConnector": {
      "dataSource": "gcp_fhir",
      "params": {
          "instance_uri": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID"
        },
        "entities": [
          {
            "entityName": "FHIR_STORE_NAME"
            "healthcareFhirConfig": {
              "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE,
              "enableStaticIndexingForBatchIngestion": STATIC_INDEXING_TRUE|FALSE
            }
          }
        ],
        "syncMode": "STREAMING"
      }
    }'
    

    Ganti kode berikut:

    • PROJECT_ID: ID Google Cloud project Anda.
    • COLLECTION_ID: ID koleksi yang ingin Anda gunakan untuk melakukan streaming data FHIR R4.
    • COLLECTION_NAME: nama koleksi yang ingin Anda gunakan untuk mengalirkan data FHIR R4.
    • SOURCE_PROJECT_ID: ID project Google Cloud yang berisi set data dan penyimpanan FHIR Cloud Healthcare API.
    • CLOUD_HEALTHCARE_DATASET_ID: ID set data Cloud Healthcare API yang berisi penyimpanan FHIR sumber.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: lokasi set data Cloud Healthcare API yang berisi penyimpanan FHIR sumber.
    • FHIR_STORE_ID: ID penyimpanan FHIR R4 Cloud Healthcare API.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: nilai boolean saat disetel ke true memungkinkan Anda mengonfigurasi skema penyimpanan data menggunakan metode schema.update.
    • STATIC_INDEXING_TRUE|FALSE: boolean yang jika disetel ke true memungkinkan Anda mengimpor data historis dengan kuota pengindeksan yang lebih tinggi. Hal ini berguna jika Anda memperkirakan aplikasi penelusuran Anda akan menghadapi volume data yang lebih tinggi. Namun, setiap catatan membutuhkan waktu lebih lama untuk diindeks. Google sangat menyarankan agar Anda menyetel kolom ini ke true.
    • Jika koleksi berhasil dibuat, konektor data akan ditambahkan ke daftar penyimpanan data di halaman Penyimpanan Data di konsol Google Cloud .
    • Konektor data yang dibuat berisi entity, yang memiliki nama yang sama dengan penyimpanan FHIR R4 tempat Anda melakukan streaming data.

Langkah berikutnya

Memverifikasi pembuatan penyimpanan data dan impor data FHIR

Tugas ini menunjukkan cara memverifikasi apakah penyimpanan data berhasil dibuat dan apakah data FHIR berhasil diimpor ke penyimpanan data.

  • Di konsol Google Cloud : Pilih penyimpanan data dan verifikasi detailnya.
  • Melalui REST API:
    1. Gunakan metode dataStores.get untuk mendapatkan detail penyimpanan data kesehatan.
    2. Gunakan metode operations.get untuk mendapatkan detail operasi impor.

Untuk memverifikasi pembuatan penyimpanan data dan impor data, selesaikan langkah-langkah berikut.

Konsol

  1. Di konsol Google Cloud , buka halaman AI Applications.

    Aplikasi AI

  2. Di menu navigasi, klik Data Stores.

    Halaman Data Stores menampilkan daftar penyimpanan data di project Google Cloud Anda beserta detailnya.

  3. Verifikasi apakah penyimpanan data atau konektor data yang Anda buat ada di daftar penyimpanan data. Dalam daftar penyimpanan data, konektor data yang melakukan streaming data berisi penyimpanan data yang memiliki nama yang sama dengan penyimpanan FHIR Cloud Healthcare API.

  4. Pilih penyimpanan data atau konektor data dan verifikasi detailnya.

    • Untuk penyimpanan data:
      • Tabel ringkasan mencantumkan detail berikut:
        • ID, jenis, dan region penyimpanan data.
        • Jumlah dokumen yang menunjukkan jumlah resource FHIR yang diimpor.
        • Stempel waktu saat dokumen terakhir diimpor.
        • Atau, klik Lihat detail untuk melihat detail impor dokumen, seperti detail tentang impor yang berhasil, sebagian, atau gagal.
      • Tab Dokumen mencantumkan ID resource dari resource FHIR yang diimpor dan jenis resource-nya dalam tabel yang dipaginasi. Anda dapat memfilter tabel ini untuk memverifikasi apakah resource tertentu diimpor atau tidak.
      • Tab Aktivitas mencantumkan detail impor dokumen, seperti detail tentang impor yang berhasil, sebagian, atau gagal.
    • Untuk konektor data:
      • Tabel ringkasan mencantumkan detail berikut:
        • ID, jenis, dan wilayah koleksi.
        • Nama aplikasi yang terhubung.
        • Status konektor, yang berupa aktif atau dijeda.
      • Tabel Entitas menampilkan entitas dalam penghubung data. Nama entity adalah nama FHIR store sumber. ID entitas adalah ID konektor data yang ditambahkan dengan nama penyimpanan FHIR sumber.
        • Klik nama entity untuk melihat detailnya. Karena entitas adalah instance penyimpanan data dalam konektor data, detail entitas sama dengan detail penyimpanan data.
  5. Di tab Schema, lihat properti untuk elemen dan resource FHIR yang didukung. Klik Edit untuk mengonfigurasi skema.

REST

  1. Verifikasi pembuatan penyimpanan data.

    curl -X GET -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
     "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID"
    

    Ganti kode berikut:

    • PROJECT_ID: ID Google Cloud project Anda.
    • DATA_STORE_ID: ID penyimpanan data Vertex AI Search.
  2. Verifikasi apakah operasi impor data FHIR telah selesai.

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/operations/IMPORT_OPERATION_ID"
    

    Ganti kode berikut:

    • PROJECT_ID: ID Google Cloud project Anda.
    • DATA_STORE_ID: ID penyimpanan data Vertex AI Search.
    • IMPORT_OPERATION_ID: ID operasi dari operasi yang berjalan lama yang ditampilkan saat Anda memanggil metode import

Langkah berikutnya