이 문서에서는 Google Cloud를 사용하여 사전 승인 (PA) 요청 처리를 자동화하고 사용량 검토 (UR) 프로세스를 개선하려는 건강보험 회사를 위한 참조 아키텍처를 설명합니다. 이 페이지는 이러한 조직의 소프트웨어 개발자와 프로그램 관리자를 대상으로 합니다. 이 아키텍처는 의료 보험 제공업체가 데이터 처리 및 임상 양식에서 유용한 정보 추출을 자동화하여 관리 오버헤드를 줄이고 효율성을 높이며 의사 결정을 개선할 수 있도록 지원합니다. 또한 프롬프트 생성 및 추천에 AI 모델을 사용할 수 있습니다.
아키텍처
다음 다이어그램은 데이터 처리 워크플로를 자동화하고 사용률 관리 (UM) 검토 프로세스를 최적화하기 위한 아키텍처와 접근 방식을 설명합니다. 이 접근 방식은 Google Cloud의 데이터 및 AI 서비스를 사용합니다.
위의 아키텍처에는 다음 하위 시스템에서 지원하는 두 가지 데이터 흐름이 포함됩니다.
- 소유권 주장 데이터 활성화 도구 (CDA): 양식 및 문서와 같은 비정형 소스에서 데이터를 추출하고 구조화된 기계가 읽을 수 있는 형식으로 데이터베이스에 처리합니다. CDA는 PA 요청 양식을 처리하기 위한 데이터 흐름을 구현합니다.
- 이용 검토 서비스 (UR 서비스): PA 요청 데이터, 정책 문서, 기타 치료 가이드라인을 통합하여 권장사항을 생성합니다. UR 서비스는 생성형 AI를 사용하여 PA 요청을 검토하는 데이터 흐름을 구현합니다.
다음 섹션에서는 이러한 데이터 흐름을 설명합니다.
CDA 데이터 흐름
다음 다이어그램은 CDA를 사용하여 PA 요청 양식을 처리하기 위한 데이터 흐름을 보여줍니다.
위의 다이어그램에 표시된 것처럼 PA 케이스 관리자는 시스템 구성요소와 상호작용하여 PA 요청을 수집, 검증, 처리합니다. PA 케이스 관리자는 PA 요청 접수를 담당하는 비즈니스 운영팀의 담당자입니다. 이벤트 흐름은 다음과 같습니다.
- PA 케이스 관리자는 의료인으로부터 PA 요청 양식(
pa_forms
)을 수신하여pa_forms_bkt
Cloud Storage 버킷에 업로드합니다. ingestion_service
서비스는pa_forms_bkt
버킷의 변경사항을 수신 대기합니다.ingestion_service
서비스는pa_forms_bkt
버킷에서pa_forms
양식을 가져옵니다. 서비스는 사전 구성된 문서 AI 프로세서(form_processors
라고 함)를 식별합니다. 이러한 프로세서는pa_forms
양식을 처리하도록 정의됩니다.ingestion_service
서비스는form_processors
프로세서를 사용하여 양식에서 정보를 추출합니다. 양식에서 추출된 데이터는 JSON 형식입니다.ingestion_service
서비스는 필드 수준 신뢰 점수와 함께 추출된 정보를pa_form_collection
라는 Firestore 데이터베이스 컬렉션에 씁니다.hitl_app
애플리케이션은pa_form_collection
데이터베이스에서 신뢰 점수가 포함된 정보 (JSON)를 가져옵니다. 애플리케이션은form_processors
머신러닝 (ML) 모델의 출력에서 사용할 수 있는 필드 수준 신뢰도 점수에서 문서 수준 신뢰도 점수를 계산합니다.hitl_app
애플리케이션은 PA 케이스 관리자가 추출된 값이 부정확한 경우 정보를 검토하고 수정할 수 있도록 필드 및 문서 수준 신뢰도 점수와 함께 추출된 정보를 PA 케이스 관리자에게 표시합니다. PA 케이스 관리자는 잘못된 값을 업데이트하고pa_form_collection
데이터베이스에 문서를 저장할 수 있습니다.
데이터의 UR 서비스 흐름
다음 다이어그램은 UR 서비스의 데이터 흐름을 보여줍니다.
위의 다이어그램에서 볼 수 있듯이 UR 전문가는 시스템 구성요소와 상호작용하여 PA 요청에 대한 임상 검토를 실시합니다. UR 전문가는 일반적으로 의료 보험 회사에 고용되어 특정 임상 분야에 경험이 있는 간호사 또는 의사입니다. PA 요청의 케이스 관리 및 라우팅 워크플로는 이 섹션에서 설명하는 워크플로의 범위에 해당하지 않습니다.
이벤트 흐름은 다음과 같습니다.
ur_app
애플리케이션은 PA 요청 목록과 검토 상태를 UR 전문가에게 표시합니다. 상태는in_queue
,in_progress
또는completed
로 표시됩니다.- 목록은
pa_form_collection
데이터베이스에서pa_form information
데이터를 가져와서 생성됩니다. UR 전문가는ur_app
애플리케이션에 표시된 목록에서 항목을 클릭하여 요청을 엽니다. ur_app
애플리케이션은pa_form information
데이터를prompt_model
모델에 제출합니다. Vertex AI Gemini API를 사용하여 다음과 유사한 프롬프트를 생성합니다.Review a PA request for {medication|device|medical service} for our member, {Patient Name}, who is {age} old, {gender} with {medical condition}. The patient is on {current medication|treatment list}, has {symptoms}, and has been diagnosed with {diagnosis}.
ur_app
애플리케이션은 생성된 프롬프트를 UR 전문가에게 표시하여 검토 및 의견을 받습니다. UR 전문가는 UI에서 프롬프트를 업데이트하고 애플리케이션으로 전송할 수 있습니다.ur_app
애플리케이션은 추천을 생성해 달라는 요청과 함께 프롬프트를ur_model
모델에 전송합니다. 모델이 응답을 생성하고 애플리케이션으로 반환합니다. 애플리케이션은 UR 전문가에게 권장 결과를 표시합니다.UR 전문가는
ur_search_app
애플리케이션을 사용하여clinical documents
,care guidelines
,plan policy documents
를 검색할 수 있습니다.clinical documents
,care guidelines
,plan policy documents
는 사전 색인이 생성되며ur_search_app
애플리케이션에서 액세스할 수 있습니다.
구성요소
이 아키텍처에는 다음 구성요소가 포함됩니다.
Cloud Storage 버킷 UM 애플리케이션 서비스는 Google Cloud 프로젝트에 다음 Cloud Storage 버킷이 필요합니다.
pa_forms_bkt
: 승인이 필요한 PA 양식을 처리하는 버킷입니다.training_forms
: DocAI 양식 프로세서를 학습하기 위한 이전 PA 양식을 보관하는 버킷입니다.eval_forms
: DocAI 양식 프로세서의 정확성을 평가하기 위한 PA 양식을 보관하는 버킷입니다.tuning_dataset
: 대규모 언어 모델 (LLM)을 조정하는 데 필요한 데이터를 보관하는 버킷입니다.eval_dataset
: LLM 평가에 필요한 데이터를 보관하는 버킷입니다.clinical_docs
: 의료인이 PA 양식에 첨부파일로 제출하거나 PA 케이스를 지원하기 위해 나중에 제출하는 임상 문서를 보관하는 버킷입니다. 이러한 문서는 Vertex AI Agent Builder 서비스의 검색 애플리케이션에 의해 색인이 생성됩니다.um_policies
: 의료 필요성 및 치료 가이드라인, 건강 보험 정책 문서, 적용 범위 가이드라인을 보관하는 버킷입니다. 이러한 문서는 Vertex AI Agent Builder 서비스의 검색 애플리케이션에 의해 색인이 생성됩니다.
form_processors
: 이러한 프로세서는pa_forms
양식에서 정보를 추출하도록 학습됩니다.pa_form_collection
: 추출된 정보를 NoSQL 데이터베이스 컬렉션에 JSON 문서로 저장하는 Firestore 데이터 스토어입니다.ingestion_service
: 버킷에서 문서를 읽고 파싱을 위해 DocAI 엔드포인트에 전달하며 추출된 데이터를 Firestore 데이터베이스 컬렉션에 저장하는 마이크로서비스입니다.hitl_app
:pa_forms
에서 추출된 데이터 값을 가져와 표시하는 마이크로서비스 (웹 애플리케이션)입니다. 또한 양식 처리기 (ML 모델)가 PA 케이스 관리자에게 보고한 신뢰 점수를 렌더링하여 케이스 관리자가 정보를 검토, 수정, 저장할 수 있도록 합니다.ur_app
: UR 전문가가 생성형 AI를 사용하여 PA 요청을 검토하는 데 사용할 수 있는 마이크로서비스 (웹 애플리케이션)입니다.prompt_model
이라는 모델을 사용하여 프롬프트를 생성합니다. 마이크로서비스는pa_forms
양식에서 추출된 데이터를prompt_model
모델에 전달하여 프롬프트를 생성합니다. 그런 다음 생성된 프롬프트를ur_model
모델에 전달하여 케이스에 대한 추천을 가져옵니다.Vertex AI 의료용 조정 LLM: Vertex AI에는 비용과 지연 시간을 줄이기 위해 조정할 수 있는 다양한 생성형 AI 기반 모델이 있습니다. 이 아키텍처에 사용되는 모델은 다음과 같습니다.
prompt_model
:pa_forms
에서 추출된 데이터를 기반으로 프롬프트를 생성하도록 조정된 LLM의 어댑터입니다.ur_model
: 입력 프롬프트를 기반으로 추천 초안을 생성하도록 조정된 LLM의 어댑터입니다.
ur_search_app
: Vertex AI Agent Builder로 빌드된 검색 애플리케이션으로, 임상 문서, UM 정책, 적용 범위 가이드라인에서 UR 전문가에게 맞춤설정된 관련 정보를 찾습니다.
사용 제품
이 참조 아키텍처에는 다음과 같은 Google Cloud 제품이 사용됩니다.
- Vertex AI: ML 모델 및 AI 애플리케이션을 학습 및 배포하고 AI 기반 애플리케이션에서 사용하도록 LLM을 맞춤설정할 수 있게 해주는 ML 플랫폼입니다.
- Vertex AI Agent Builder: 개발자가 엔터프라이즈급 AI 기반 에이전트와 애플리케이션을 만들고 배포할 수 있는 플랫폼입니다.
- Document AI: 문서에서 비정형 데이터를 가져와서 정형 데이터로 변환하는 문서 처리 플랫폼입니다.
- Firestore: 자동 확장, 고성능, 간편한 애플리케이션 개발을 위해 설계된 NoSQL 문서 데이터베이스입니다.
- Cloud Run: Google의 확장 가능한 인프라에서 직접 컨테이너를 실행할 수 있게 해주는 서버리스 컴퓨팅 플랫폼입니다.
- Cloud Storage: 다양한 데이터 유형에 적합한 저비용, 무제한 객체 저장소입니다. Google Cloud 내부 및 외부에서 데이터에 액세스할 수 있고 중복성을 위해 여러 위치에 복제됩니다.
- Cloud Logging: 스토리지, 검색, 분석, 알림을 지원하는 실시간 로그 관리 시스템입니다.
- Cloud Monitoring: 애플리케이션 및 인프라의 성능, 가용성, 상태에 관한 정보를 제공하는 서비스입니다.
사용 사례
UM은 주로 미국의 건강보험 회사에서 사용하는 절차이지만, 몇 가지 수정사항이 포함된 유사한 절차가 전 세계 의료보험 시장에서 사용되고 있습니다. UM의 목표는 환자가 적절한 환경에서 최적의 시기에 최소한의 비용으로 적절한 치료를 받을 수 있도록 지원하는 것입니다. UM은 또한 의료가 효과적이고 효율적이며 증거 기반의 의료 표준에 부합하도록 하는 데 도움이 됩니다. PA는 환자가 의료 서비스를 받기 전에 보험 회사의 승인을 받아야 하는 UM 도구입니다.
많은 기업에서 사용하는 UM 프로세스는 시의적절한 지원을 제공하고 받기 위한 장벽입니다. 비용이 많이 들고 시간이 많이 소요되며 관리가 과도합니다. 또한 복잡하고 수동으로 진행되며 속도가 느립니다. 이 프로세스는 건강보험이 의료의 질을 효과적으로 관리하고 제공자 및 회원 경험을 개선하는 능력에 큰 영향을 미칩니다. 하지만 이러한 기업이 UM 프로세스를 수정하면 환자가 양질의 비용 효율적인 치료를 받을 수 있습니다. UR 프로세스를 최적화하면 의료 보험은 PA 요청을 신속하게 처리하여 비용과 거부를 줄일 수 있으며, 이는 환자와 제공자 경험을 개선하는 데 도움이 됩니다. 이 접근 방식은 의료 서비스 제공자의 행정 부담을 줄이는 데 도움이 됩니다.
건강보험에서 PA 요청을 받으면 PA 케이스 관리자가 케이스 관리 시스템에서 케이스를 만들어 요청을 추적, 관리, 처리합니다. 이러한 요청의 상당수가 팩스 및 우편으로 접수되며 임상 문서가 첨부되어 있습니다. 그러나 건강보험회사는 데이터 분석 및 비즈니스 인텔리전스를 위해 이러한 양식과 문서의 정보를 쉽게 이용할 수 없습니다. 현재 이러한 문서의 정보를 케이스 관리 시스템에 수동으로 입력하는 절차는 비효율적이고 시간이 많이 걸리며 오류가 발생할 수 있습니다.
건강보험은 데이터 처리 프로세스를 자동화하여 비용, 데이터 입력 오류, 직원의 행정 부담을 줄일 수 있습니다. 의료 양식 및 문서에서 유용한 정보를 추출하면 의료 보험 회사에서 UR 절차를 신속하게 처리할 수 있습니다.
설계 고려사항
이 섹션에서는 이 참조 아키텍처를 사용하여 보안, 안정성, 운영 효율성, 비용, 성능에 대한 특정 요구사항을 충족하는 하나 이상의 아키텍처를 개발하는 데 도움이 되는 안내를 제공합니다.
보안, 개인정보 보호, 규정 준수
이 섹션에서는 이 참조 아키텍처를 사용하여 Google Cloud에서 보안, 개인 정보 보호, 규정 준수 요구사항을 충족하는 아키텍처를 설계하고 빌드할 때 고려해야 하는 요소를 설명합니다.
미국에서는 건강 보험 이동성 및 책임법(HIPAA, 경제적 및 임상적 건전성을 위한 의료정보기술(HITECH) 법안 도입에 따른 개정 등 개정판 포함)에 따라 HIPAA의 보안 규칙, 개인 정보 보호 규칙, 위반 통지 규칙을 준수해야 합니다. Google Cloud는 HIPAA 규정 준수를 지원하지만, 궁극적으로 HIPAA 규정 준수 여부를 평가할 책임은 고객에게 있습니다. HIPAA 준수는 사용자와 Google의 공동 책임입니다. 조직에 HIPAA가 적용되고 보호 건강 정보 (PHI)와 관련하여 Google Cloud 제품을 사용하려면 Google의 비즈니스 제휴 계약 (BAA)을 검토하고 수락해야 합니다. BAA에 해당하는 Google 제품은 HIPAA 요구사항을 충족하고 Google의 ISO/IEC 27001, 27017, 27018 인증 및 SOC 2 보고서를 준수합니다.
Vertex AI Model Garden에 호스팅된 모든 LLM이 HIPAA를 지원하는 것은 아닙니다. HIPAA를 지원하는 LLM을 평가하고 사용합니다.
Google 제품이 어떻게 HIPAA 규정 준수 요건을 충족하는지를 평가하려면 규정 준수 리소스 센터에서 서드 파티 감사 보고서를 참고하세요.
고객은 AI 사용 사례를 선택할 때 다음 사항을 고려하고 이를 염두에 두고 설계하는 것이 좋습니다.
- 데이터 개인 정보 보호: Google Cloud Vertex AI 플랫폼 및 Document AI는 기반 모델을 개선하거나 학습하는 데 고객 데이터, 데이터 사용량, 콘텐츠 또는 문서를 활용하지 않습니다. Google Cloud의 보안 테넌트 내에서 데이터와 문서를 사용하여 기반 모델을 조정할 수 있습니다.
- Firestore 서버 클라이언트 라이브러리는 Identity and Access Management (IAM)를 사용하여 데이터베이스 액세스를 관리합니다. Firebase의 보안 및 개인 정보 보호 정보에 관해 알아보려면 Firebase의 개인 정보 보호 및 보안을 참고하세요.
- 민감한 정보를 저장하는 데 도움이 되도록
ingestion_service
,hitl_app
,ur_app
서비스 이미지를 고객 관리 암호화 키 (CMEK)를 사용하여 암호화하거나 Secret Manager와 통합할 수 있습니다. - Vertex AI는 모델 및 학습 데이터를 보호하기 위해 Google Cloud 보안 제어를 구현합니다. 일부 보안 제어는 Vertex AI의 생성형 AI 기능에서 지원되지 않습니다. 자세한 내용은 Vertex AI의 보안 제어 및 생성형 AI의 보안 제어를 참고하세요.
- IAM을 사용하여 클라우드 리소스에 최소 권한 및 책임 구분 원칙을 구현하는 것이 좋습니다. 이 제어 기능을 사용하면 프로젝트, 폴더 또는 데이터 세트 수준에서 액세스를 제한할 수 있습니다.
- Cloud Storage는 데이터를 암호화된 상태로 자동 저장합니다. 데이터를 암호화하는 추가 방법에 대해 자세히 알아보려면 데이터 암호화 옵션을 참고하세요.
Google 제품은 책임감 있는 AI 원칙을 준수합니다.
안정성
이 섹션에서는 PA 요청 처리를 자동화하기 위한 안정적인 인프라를 빌드하고 운영할 때 고려해야 하는 설계 요소를 설명합니다.
Document AI form_processors
는 리전 서비스입니다. 데이터는 리전 내 여러 영역에 동기식으로 저장됩니다. 트래픽은 영역 간에 자동으로 부하 분산됩니다. 영역 중단이 발생해도 데이터가 손실되지 않습니다. 리전 중단이 발생하면 Google에서 중단을 해결할 때까지 서비스를 사용할 수 없습니다.
pa_forms_bkt
, training_forms
, eval_forms
, tuning_dataset
, eval_dataset
, clinical_docs
또는 um_policies
버킷을 사용하여 리전, 이중 리전, 멀티 리전의 세 가지 위치 중 하나에 Cloud Storage 버킷을 만들 수 있습니다. 리전 버킷에 저장된 데이터는 리전 내 여러 영역에 동기식으로 복제됩니다. 더 높은 가용성을 위해서는 데이터가 리전 간에 비동기식으로 복제되는 이중 리전 또는 멀티 리전 버킷을 사용하면 됩니다.
Firestore에서는 pa_form_collection
데이터베이스에서 추출된 정보가 여러 데이터 센터에 배치되어 글로벌 확장성과 안정성을 보장할 수 있습니다.
Cloud Run 서비스인 ingestion_service
, hitl_app
, ur_app
는 지역별 서비스입니다. 데이터는 리전 내 여러 영역에 동기식으로 저장됩니다. 트래픽은 영역 간에 자동으로 부하 분산됩니다. 영역 중단이 발생해도 Cloud Run 작업이 계속 실행되고 데이터가 손실되지 않습니다. 리전 중단이 발생하면 Google에서 중단 문제를 해결할 때까지 Cloud Run 작업 실행이 중지됩니다. 개별 Cloud Run 작업 또는 태스크는 실패할 수 있습니다. 이러한 실패를 처리하려면 태스크 재시도 및 체크포인트 지정을 사용할 수 있습니다. 자세한 내용은 작업 재시도 및 체크포인트 권장사항을 참고하세요. Cloud Run 안정성 가이드에서는 Cloud Run 사용을 위한 몇 가지 권장사항을 설명합니다.
Vertex AI는 데이터 준비부터 모델 배포 및 모니터링에 이르기까지 머신러닝 수명 주기에 통합된 환경을 제공하는 포괄적이고 사용자 친화적인 머신러닝 플랫폼입니다.
비용 최적화
이 섹션에서는 PA 요청 처리를 자동화하고 UR 프로세스를 개선하기 위한 아키텍처를 만들고 실행하는 데 드는 비용을 최적화하는 방법을 안내합니다. 리소스 사용량을 신중하게 관리하고 적절한 서비스 등급을 선택하면 전반적인 비용에 상당한 영향을 미칠 수 있습니다.
Cloud Storage 스토리지 클래스: 데이터 액세스 빈도에 따라 다양한 스토리지 클래스 (표준, Nearline, Coldline, 보관처리)를 사용합니다. Nearline, Coldline, Archive는 자주 액세스하지 않는 데이터에 비용 효율적입니다.
Cloud Storage 수명 주기 정책: 수명 주기 정책을 구현하여 객체를 저비용 스토리지 클래스로 자동 전환하거나 기간 및 액세스 패턴에 따라 삭제합니다.
Document AI 가격은 배포된 프로세서 수와 Document AI 프로세서에서 처리한 페이지 수를 기준으로 책정됩니다. 다음 사항을 고려하세요.
- 프로세서 최적화: 워크로드 패턴을 분석하여 배포할 최적의 Document AI 프로세서 수를 결정합니다. 리소스 오버프로비저닝을 피하세요.
- 페이지 볼륨 관리: 문서를 사전 처리하여 불필요한 페이지를 삭제하거나 해상도를 최적화하면 처리 비용을 줄일 수 있습니다.
Firestore 가격은 문서, 색인 항목, 데이터베이스에서 사용하는 스토리지, 네트워크 대역폭 양과 관련된 활동을 기준으로 책정됩니다. 다음 사항을 고려하세요.
- 데이터 모델링: 색인 항목 수를 최소화하고 효율성을 위해 쿼리 패턴을 최적화하도록 데이터 모델을 설계합니다.
- 네트워크 대역폭: 네트워크 사용량을 모니터링하고 최적화하여 과도한 요금이 청구되지 않도록 합니다. 자주 액세스하는 데이터를 캐시하는 것이 좋습니다.
Cloud Run 요금은 주문형 CPU 사용량, 메모리, 요청 수를 기준으로 계산됩니다. 리소스 할당을 신중하게 고려하세요. 워크로드 특성에 따라 CPU 및 메모리 리소스를 할당합니다. 자동 확장을 사용하여 수요에 따라 리소스를 동적으로 조정합니다.
Vertex AI LLM은 일반적으로 텍스트 또는 미디어의 입력과 출력을 기준으로 요금이 청구됩니다. 입력 및 출력 토큰 수는 LLM 비용에 직접적인 영향을 미칩니다. 효율성을 위해 프롬프트 및 응답 생성을 최적화합니다.
Vertex AI Agent Builder 검색엔진 요금은 사용하는 기능에 따라 다릅니다. 비용을 관리하려면 다음 세 가지 옵션 중에서 선택하세요.
- 구조화되지 않은 검색 기능을 제공하는 Search Standard Edition
- 비정형 검색 및 웹사이트 검색 기능을 제공하는 Search Enterprise Edition
- 요약 및 멀티턴 검색 기능을 제공하는 검색 LLM 부가기능
비용을 최적화하는 데 도움이 되는 다음과 같은 추가 고려사항도 고려해 볼 수 있습니다.
- 모니터링 및 알림: Cloud Monitoring 및 결제 알림을 설정하여 비용을 추적하고 사용량이 기준점을 초과하면 알림을 받습니다.
- 비용 보고서: Google Cloud 콘솔에서 비용 보고서를 정기적으로 검토하여 추세를 파악하고 리소스 사용량을 최적화합니다.
- 약정 사용 할인 고려하기: 예측 가능한 워크로드가 있는 경우 할인된 가격을 이용하기 위해 해당 리소스를 일정 기간 동안 사용하겠다고 약속해 보세요.
이러한 요소를 신중하게 고려하고 권장 전략을 구현하면 Google Cloud에서 PA 및 UR 자동화 아키텍처를 실행하는 데 드는 비용을 효과적으로 관리하고 최적화할 수 있습니다.
배포
이 아키텍처의 참조 구현 코드는 오픈소스 라이선스로 제공됩니다. 이 코드가 구현하는 아키텍처는 프로토타입이며 프로덕션 배포에 필요한 일부 기능과 강화 기능이 포함되지 않을 수 있습니다. 요구사항에 더 적합하도록 이 참조 아키텍처를 구현하고 확장하려면 Google Cloud 컨설팅에 문의하는 것이 좋습니다.
이 참조 아키텍처의 시작 코드는 다음 git 저장소에서 확인할 수 있습니다.
- CDA Git 저장소: 이 저장소에는 애플리케이션 코드의 인프라 프로비저닝 및 배포를 위한 Terraform 배포 스크립트가 포함되어 있습니다.
- UR 서비스 git 저장소: 이 저장소에는 UR 서비스의 코드 샘플이 포함되어 있습니다.
이 참조 아키텍처에 대한 지원 및 서비스를 구현하려면 다음 두 가지 옵션 중 하나를 선택할 수 있습니다.
- Google Cloud 컨설팅에 문의합니다.
- 이 아키텍처에 설명된 제품 및 솔루션 구성요소를 사용하여 패키징된 제품을 빌드한 파트너를 활용하세요.
다음 단계
- Vertex AI를 사용하는 RAG 지원 생성형 AI 애플리케이션을 위한 인프라 빌드 방법 알아보기
- GKE를 사용하는 RAG 지원 생성형 AI 애플리케이션을 위한 인프라
- 생성형 AI 대답 그라운딩을 위한 Google Cloud 옵션 검토
- Cloud Run용 Python 애플리케이션을 최적화하는 방법을 알아보세요.
- 그 밖의 참조 아키텍처, 다이어그램, 튜토리얼, 권장사항을 알아보려면 클라우드 아키텍처 센터를 확인하세요.
참여자
저자: Dharmesh Patel | 의료 업계 솔루션 설계자
기타 참여자:
- 벤 스웬카 | 주요 엔터프라이즈 설계자
- 에밀리 탸오 | AI/ML 고객 엔지니어
- 루이스 우레나 | 개발자 관계 엔지니어
- 프라네이 미탈 | 그룹 제품 관리자
- 락슈마난 세투 | 기술계정 관리자