콘텐츠로 이동하기
Transform with Google Cloud

The Prompt: 생성형 AI 모델에 위험 관리 및 데이터 거버넌스 구현

2023년 9월 7일
https://storage.googleapis.com/gweb-cloudblog-publish/images/gen-ai-risk-management-data-governance.max-1100x1100.jpg
Philip Moyer

Global VP, AI & Business Solutions at Google Cloud

*본 아티클의 원문은 2023년 8월 12일 Google Cloud 블로그(영문)에 게재되었습니다.


비즈니스 리더들 사이에서 생성형 AI가 큰 관심을 모으고 있습니다. 매주 'The Prompt'는 빠르게 변화하는 이 주제에 대한 최신 정보를 놓치지 않도록 고객 및 파트너와 협업하면서 확인된 사항과 Google의 최신 AI 트렌드를 전해드립니다. 이번 호에서는 Google Cloud의 AI 및 비즈니스 솔루션 부문 글로벌 부사장 필립 모이어가 생성형 AI 기술을 도입 및 구현할 때의 위험 관리에 대한 생각을 나눕니다.

생성형 AI 시대에 데이터 거버넌스는 중요합니다. 최근 몇 달간 일부 비즈니스 리더와 공무원이 모델에 입력되는 가치 있는 데이터에 대한 소유권을 유지하기 위한 방안을 모색하는 사이에 가공 및 독점 자료와 관련하여 널리 알려진 몇 가지 실수가 발생했습니다.

생성형 AI 도입이 증가하고 조직에서 새롭고 참신한 응용 분야를 발견하면서 생성형 AI 사용과 관련해 적절한 균형을 맞추는 것이 갈수록 시급해지고 있습니다. 이러한 소소한 자산을 안전하게 보호하는 것 못지않게 그 자산을 신뢰하고 활용할 수 있는 것도 중요합니다.

현재 리더들은 생성형 AI 기술 및 도구 도입에 열을 올리고 있습니다. 그러나 '이러한 도구로 무엇을 할 것인가'라는 질문에는 'AI 모델과 관련한 위험 관리와 거버넌스를 어떻게 보장할 것인가'라는 질문이 이어집니다. 

The Prompt의 이전 호에서는 생성형 AI의 관리가 간편하고 보호 장치를 포함해야 하는 이유에 대해 설명했습니다. 생성형 AI에 대한 투자는 가치를 창출할 수 있는 놀라운 가능성을 열어주지만, 한편으로는 고유한 문제들도 수반됩니다. 특히 비즈니스 환경에서 생성형 AI를 사용하는 경우 정확성, 개인 정보 보호 및 보안, 규정 준수, 지식 재산 침해와 관련된 다양한 위험에 노출될 수 있습니다.

혁신을 위해 신뢰, 개인 정보 보호 또는 보안을 타협해서는 안 되며 그 반대도 마찬가지입니다. 기업이 생성형 AI 모델의 강력한 성능을 활용하려는 경우에도 안전하고 책임감 있는 자세로 임해야 합니다.

이번 호에서는 이러한 각 특성이 지니는 중요성과 Google Cloud 전략에서 어떻게 반영되어 있는지에 대해 살펴보겠습니다.

안전하고 신뢰할 수 있는 생성형 AI 모델

생성형 AI의 잠재적인 사용 사례 목록이 계속 증가하고 있지만 여전히 많은 리더들은 생성형 AI 기반 모델의 신뢰성과 정확성에 대해 우려합니다. 빠르게 시작하기를 원하면서도 한편으로는 가장 중요한 자산이 위험에 처하지 않고 보호된다는 확신을 얻고자 합니다.

Google Cloud는 생성형 AI 도입이 쉬우면서도 안전하게 이루어져야 한다고 생각합니다. Google Cloud는 공통된 운명 모델로 운영되며 비즈니스 리더가 직면한 위험을 관리할 수 있도록 적극 지원합니다. 여기서 중요한 부분은 자체 커스텀 모델을 구축하든 즉시 사용 가능한 통합 솔루션 및 기능을 활용하든 관계없이 사용 중인 생성형 AI 도구와 모델을 완전히 신뢰하고 이해할 수 있도록 돕는 것입니다. 

https://storage.googleapis.com/gweb-cloudblog-publish/images/new-way-to-cloud-hero.max-2200x2200.png

선두 기업은 Google Cloud에서 생성형 AI를 빌드합니다.

기본적으로 보안 기능이 제공되는 데이터 보호와 여러 보안 제어가 Vertex AI생성형 앱 빌더의 생성형 AI 지원까지 확대 제공되지만, Google은 조직이 안심하고 AI 모델을 배포할 수 있도록 위해 추가적인 조치를 취했습니다.

예를 들어 Google은 Cloud AI 대규모 모델과 생성형 AI를 위한 포괄적인 데이터 거버넌스 프로그램을 구축했습니다. 이 프로그램은 미국 국립표준기술연구소(NIST)의 AI 위험 관리 프레임워크(AI RMF)에 부합하며, Google의 업계를 선도하는 연구와 지속적으로 확장되는 리소스, 도구, 권장사항 라이브러리로 뒷받침됩니다.

Google은 이 프로그램의 일환으로 기업의 개발에서 생성형 AI에 대한 니즈를 지원하기 위한 여러 완화책을 마련했습니다. 여기에는 특정 생성형 AI 위험에 대한 모델 평가 및 모니터링을 위한 기술적 안전장치, 고객 데이터 및 민감한 사용 사례에 대한 정책, 명확한 문서화 및 구현 가이드가 포함됩니다. 또한 Google은 기반 모델을 학습시키거나 향상하는 데 학습 데이터와 추론 데이터를 사용하지 않으며 다른 고객에게 이익이 되도록 사용하지도 않습니다. 

책임감 있는 AI 우선시

새로운 도구와 시스템은 서로 다른 수준의 전문성을 갖춘 다양한 사용자가 생성형 AI를 사용할 수 있도록 지원하며 생산성과 창의성을 향상할 새로운 기회를 창출합니다. 그렇더라도 생성형 AI를 올바르게 설계하고 배포하지 않을 경우 의도하지 않은 결과가 초래되고 조직, 개인, 사회 전체에 해를 입힐 수 있음을 인식하는 것이 중요합니다.

Google은 여러 해 동안 AI 중심 기업을 추구해 왔으며, 이 과정에서 생성형 AI를 포함한 모든 AI가 책임감 있게 개발되어야 한다는 입장을 확고하게 유지했습니다. Google이 ISO의 AI 관리를 위한 표준 개발을 돕는 창립 후원사 중 하나로 참여한 이유도 여기에 있습니다. 조직은 위험을 줄이면서 사회적 혜택을 극대화하기 위해 생성형 AI를 개발하고 사용하는 방법에 관한 명확하고 윤리적인 가이드라인을 마련해야 합니다.

Google은 핵심 AI 원칙 외에 확장 및 반복 가능한 윤리 검토 절차를 구축했습니다. 또한 이 절차를 진행하면서 얻은 교훈을 책임감 있는 AI 관행, 공정성 권장사항, 기타 도구 및 교육 자료를 통해 공유하여 팀이 AI 모델을 조사하고 이해하고 효과적으로 적용하는 데 도움을 주고 있습니다. 지난해에는 Vertex의 Explainable AI를 확장하여 모델의 의사 결정 방식을 보다 쉽게 이해할 수 있도록 도왔으며, 데이터 및 모델 거버넌스 지원을 강화하기 위해 최상의 모델만 배포되도록 성능 및 품질 감사를 평가하는 반복적 모델 평가 등의 새로운 기능을 추가했습니다.

이 과정에서 Google은 생성형 AI 위험에 대처하기 위한 보다 안전하고 사회적으로 책임감 있는 관행을 촉진할 명확한 방법이 있음을 발견했습니다. 조직이 생성형 AI 설계 및 개발의 가장 초기 단계에 윤리적 고려사항을 통합할 역량을 갖출 경우 실제 피해가 발생하기 전에 위험을 식별하고 선제적으로 완화할 수 있습니다..

게시 위치