이 페이지에서는 다양한 스토리지 클래스를 사용하여 Cloud Healthcare API에서 DICOM 데이터를 관리하는 방법을 설명합니다. 적절한 스토리지 클래스를 선택하면 비용을 절감하고 데이터 보관에 관한 규제 요구사항을 충족할 수 있습니다.
이 페이지는 이미 DICOM 및 Cloud Healthcare API에 익숙한 기술 사용자를 대상으로 합니다.
개요
DICOM 스토리지 클래스는 Cloud Storage 스토리지 클래스와 유사하게 작동하며 데이터에 액세스하는 빈도와 저장해야 하는 기간에 따라 다양한 비용 및 성능 특성을 제공합니다. 각 스토리지 클래스에 관한 자세한 내용은 클래스 설명을 참고하세요.
객체에 액세스하는 빈도나 객체를 보관해야 하는 기간에 따라 DICOM 객체의 스토리지 클래스를 변경할 수 있습니다. 예를 들면 다음과 같습니다.
- 자주 액세스하지 않는 DICOM 이미지를 Standard Storage에서 Nearline Storage 또는 Coldline Storage로 이동하여 청구 비용을 절약할 수 있습니다.
- 법적인 이유로 보관해야 하는 환자 데이터를 가장 저렴하고 내구성이 뛰어난 스토리지 클래스인 Archive Storage로 이동할 수 있습니다.
사용 가능한 DICOM 스토리지 클래스
DICOM 객체에 다음 스토리지 클래스를 사용할 수 있습니다.
- Standard(기본값)
- Nearline
- Coldline
- Archive
스토리지 클래스 가격 책정
스토리지 클래스마다 자체 가격 책정 구조가 있습니다. DICOM 객체의 스토리지 클래스를 변경하면 청구 비용에 영향을 줄 수 있습니다. 자세한 내용은 다음을 참조하세요.
개별 DICOM 객체의 스토리지 클래스 변경
연구, 시리즈 또는 인스턴스 수준에서 DICOM 객체의 스토리지 클래스를 변경할 수 있습니다.
다음 샘플은 DICOM 인스턴스의 스토리지 클래스를 변경하는 방법을 보여줍니다.
REST
projects.locations.datasets.dicomStores.studies.series.instances.setBlobStorageSettings
메서드를 사용하여 DICOM 인스턴스의 스토리지 클래스를 변경합니다.요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: Google Cloud 프로젝트의 IDLOCATION
: 데이터 세트 위치DATASET_ID
: DICOM 저장소의 상위 데이터 세트DICOM_STORE_ID
: DICOM 저장소 IDSTUDY_INSTANCE_UID
: 연구 인스턴스 고유 식별자SERIES_INSTANCE_UID
: 시리즈 인스턴스 고유 식별자INSTANCE_UID
: 인스턴스 고유 식별자STORAGE_CLASS
: DICOM 인스턴스의 스토리지 클래스.STANDARD
,NEARLINE
,COLDLINE
또는ARCHIVE
중 하나입니다.
JSON 요청 본문:
{ "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을
request.json
파일에 저장합니다. 터미널에서 다음 명령어를 실행하여 현재 디렉터리에 이 파일을 만들거나 덮어씁니다.cat > request.json << 'EOF' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" } } EOF
그런 후 다음 명령어를 실행하여 REST 요청을 전송합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:setBlobStorageSettings"PowerShell
요청 본문을
request.json
파일에 저장합니다. 터미널에서 다음 명령어를 실행하여 현재 디렉터리에 이 파일을 만들거나 덮어씁니다.@' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" } } '@ | Out-File -FilePath request.json -Encoding utf8
그런 후 다음 명령어를 실행하여 REST 요청을 전송합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:setBlobStorageSettings" | Select-Object -Expand ContentAPI 탐색기
요청 본문을 복사하고 메서드 참조 페이지를 엽니다. 페이지 오른쪽에 API 탐색기 패널이 열립니다. 이 도구를 사용하여 요청을 보낼 수 있습니다. 요청 본문을 이 도구에 붙여넣고 다른 필수 필드를 입력한 후 실행을 클릭합니다.
OPERATION_ID
의 값을 확인합니다. 다음 단계에서 이 값이 필요합니다.projects.locations.datasets.operations.get
메서드를 사용하여 장기 실행 작업의 상태를 가져옵니다.요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: Google Cloud 프로젝트의 IDLOCATION
: 데이터 세트 위치DATASET_ID
: DICOM 저장소의 상위 데이터 세트OPERATION_ID
: 장기 실행 작업에서 반환된 ID
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
다음 명령어를 실행합니다.
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"PowerShell
다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand Content"done": true
가 포함되었으면 LRO가 완료된 것입니다.
필터 파일을 사용하여 여러 객체의 스토리지 클래스 변경
다음 섹션에서는 필터 파일을 만들고 사용하여 필터 기준에 따라 DICOM 객체의 스토리지 클래스를 변경하는 방법을 보여줍니다.
필터 파일 요구사항
- 필터 파일의 각 줄은 연구, 시리즈 또는 인스턴스를 정의하고
/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID
형식을 사용합니다. - 선을 잘라 필터가 작동하는 수준을 지정할 수 있습니다.
예를 들어
/studies/STUDY_INSTANCE_UID
를 지정하여 전체 연구를 선택하거나/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID
를 지정하여 전체 시리즈를 선택할 수 있습니다.
다음 필터 파일을 예로 들어 봅시다.
/studies/1.123.456.789 /studies/1.666.333.111/series/123.456 /studies/1.666.333.111/series/567.890 /studies/1.888.999.222/series/123.456/instances/111 /studies/1.888.999.222/series/123.456/instances/222 /studies/1.888.999.222/series/123.456/instances/333
이 필터 파일 예시는 다음에 적용됩니다.
- 학습 인스턴스 UID가
1.123.456.789
인 전체 학습 - 학습
1.666.333.111
에서 시리즈 인스턴스 UID가123.456
및567.890
인 개별 시리즈 2개 - 학습
1.888.999.222
및 시리즈123.456
에서 인스턴스 ID가111
,222
,333
인 개별 인스턴스 3개
BigQuery를 사용하여 필터 파일 만들기
BigQuery를 사용하여 필터 파일을 만들려면 먼저 DICOM 스토어의 메타데이터를 BigQuery로 내보내야 합니다. 내보낸 메타데이터에는 DICOM 스토어에 있는 DICOM 데이터의 학습, 시리즈, 인스턴스 UID가 표시됩니다.
메타데이터를 내보낸 후 다음 단계를 완료합니다.
쿼리를 실행하여 필터 파일에 추가할 연구, 시리즈, 인스턴스의 UID를 반환합니다.
예를 들어 다음 쿼리는 필터 파일 형식 요구사항에 맞게 연구, 시리즈, 인스턴스 UID를 연결하는 방법을 보여줍니다.
SELECT CONCAT ('/studies/', StudyInstanceUID, '/series/', SeriesInstanceUID, '/instances/', SOPInstanceUID) FROM [PROJECT_ID:BIGQUERY_DATASET.BIGQUERY_TABLE]
선택사항: 쿼리가 최대 응답 크기를 초과하는 큰 결과 집합을 반환하는 경우 BigQuery의 새 대상 테이블에 쿼리 결과를 저장합니다.
쿼리 결과를 파일에 저장하고 Cloud Storage로 내보냅니다. 2단계에서 새 대상 테이블에 쿼리 결과를 저장한 경우 테이블 데이터 내보내기를 참조하여 테이블 콘텐츠를 Cloud Storage로 내보냅니다.
내보낸 파일을 필요에 따라 수정한 후 요청에 포함하여 여러 DICOM 객체의 스토리지 클래스를 변경합니다.
수동으로 필터 파일 만들기
필터 파일을 수동으로 만들려면 다음 단계를 따르세요.
- 필터링할 DICOM 객체가 포함된 필터 파일을 만듭니다.
- 필터 파일을 Cloud Storage에 업로드합니다. 자세한 안내는 파일 시스템에서 객체 업로드를 참고하세요.
필터 파일 사용
다음 샘플은 DICOM 객체의 스토리지 클래스를 변경할 때 필터 파일을 적용하는 방법을 보여줍니다.
REST
projects.locations.datasets.dicomStores.studies.series.instances.setBlobStorageSettings
메서드를 사용하여 필터 파일에서 DICOM 인스턴스의 스토리지 클래스를 변경합니다.요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: Google Cloud 프로젝트의 IDLOCATION
: 데이터 세트 위치DATASET_ID
: DICOM 저장소의 상위 데이터 세트DICOM_STORE_ID
: DICOM 저장소 IDSTORAGE_CLASS
: DICOM 객체의 스토리지 클래스.STANDARD
,NEARLINE
,COLDLINE
또는ARCHIVE
중 하나입니다.CLOUD_STORAGE_BUCKET
: 필터 파일이 포함된 Cloud Storage 버킷의 이름FILTER_FILE_PATH
: Cloud Storage 버킷의 필터 파일에 대한 정규화된 URI
JSON 요청 본문:
{ "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" }, "filterConfig": { "resourcePathsGcsUri": "gs://CLOUD_STORAGE_BUCKET/FILTER_FILE_PATH" } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을
request.json
파일에 저장합니다. 터미널에서 다음 명령어를 실행하여 현재 디렉터리에 이 파일을 만들거나 덮어씁니다.cat > request.json << 'EOF' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" }, "filterConfig": { "resourcePathsGcsUri": "gs://CLOUD_STORAGE_BUCKET/FILTER_FILE_PATH" } } EOF
그런 후 다음 명령어를 실행하여 REST 요청을 전송합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
-d @request.json \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID:setBlobStorageSettings"PowerShell
요청 본문을
request.json
파일에 저장합니다. 터미널에서 다음 명령어를 실행하여 현재 디렉터리에 이 파일을 만들거나 덮어씁니다.@' { "blobStorageSettings": { "blobStorageClass": "STORAGE_CLASS" }, "filterConfig": { "resourcePathsGcsUri": "gs://CLOUD_STORAGE_BUCKET/FILTER_FILE_PATH" } } '@ | Out-File -FilePath request.json -Encoding utf8
그런 후 다음 명령어를 실행하여 REST 요청을 전송합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json" `
-InFile request.json `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID:setBlobStorageSettings" | Select-Object -Expand ContentOPERATION_ID
의 값을 확인합니다. 다음 단계에서 이 값이 필요합니다.projects.locations.datasets.operations.get
메서드를 사용하여 장기 실행 작업의 상태를 가져옵니다.요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: Google Cloud 프로젝트의 IDLOCATION
: 데이터 세트 위치DATASET_ID
: DICOM 저장소의 상위 데이터 세트OPERATION_ID
: 장기 실행 작업에서 반환된 ID
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
다음 명령어를 실행합니다.
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID"PowerShell
다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/operations/OPERATION_ID" | Select-Object -Expand Content"done": true
가 포함되었으면 LRO가 완료된 것입니다.
DICOM 객체의 스토리지 클래스 보기
연구, 시리즈 또는 인스턴스 수준에서 DICOM 객체의 스토리지 클래스를 볼 수 있습니다.
다음 섹션에서는 DICOM 인스턴스의 스토리지 클래스를 보는 방법을 설명합니다.
DICOM 객체의 스토리지 클래스 정보 가져오기
다음 샘플은 instances.getStorageInfo
메서드를 사용하여 DICOM 객체의 스토리지 클래스를 보는 방법을 보여줍니다.
REST
요청 데이터를 사용하기 전에 다음을 바꿉니다.
PROJECT_ID
: Google Cloud 프로젝트의 IDLOCATION
: 데이터 세트 위치DATASET_ID
: DICOM 저장소의 상위 데이터 세트DICOM_STORE_ID
: DICOM 저장소 IDSTUDY_INSTANCE_UID
: 연구 인스턴스 고유 식별자SERIES_INSTANCE_UID
: 시리즈 인스턴스 고유 식별자INSTANCE_UID
: 인스턴스 고유 식별자
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
다음 명령어를 실행합니다.
curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:getStorageInfo"
PowerShell
다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "https://healthcare.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/dicomStores/DICOM_STORE_ID/dicomWeb/studies/STUDY_INSTANCE_UID/series/SERIES_INSTANCE_UID/instances/INSTANCE_UID:getStorageInfo" | Select-Object -Expand Content
API 탐색기
메서드 참조 페이지를 엽니다. 페이지 오른쪽에 API 탐색기 패널이 열립니다. 이 도구를 사용하여 요청을 보낼 수 있습니다. 모든 필수 필드를 입력하고 실행을 클릭합니다.
다음과 비슷한 JSON 응답이 표시됩니다.
BigQuery에서 내보낸 DICOM 메타데이터 쿼리
DICOM 메타데이터를 BigQuery로 내보낸 후 쿼리를 실행하여 내보낸 DICOM 객체의 스토리지 클래스를 볼 수 있습니다.
다음 쿼리는 BigQuery 데이터 세트에서 DICOM 인스턴스 최대 1,000개의 연구 인스턴스 UID, 시리즈 인스턴스 UID, 인스턴스 UID, 스토리지 크기, 스토리지 클래스를 검색하는 방법을 보여줍니다.
SELECT StudyInstanceUID, SeriesInstanceUID, SOPInstanceUID, BlobStorageSize, StorageClass FROM PROJECT_ID:BIGQUERY_DATASET.BIGQUERY_TABLE LIMIT 1000
다음을 바꿉니다.
PROJECT_ID
: Google Cloud 프로젝트의 IDBIGQUERY_DATASET
: 내보낸 DICOM 메타데이터가 포함된 테이블의 상위 BigQuery 데이터 세트BIGQUERY_TABLE
: 내보낸 DICOM 메타데이터가 포함된 BigQuery 테이블