생성형 AI 거버넌스: AI 프로그램을 한 단계 끌어올리는 10가지 팁

Anton Chuvakin
Security Advisor, Office of the CISO
Marina Kaganovich
Executive Trust Lead, Office of the CISO, Google Cloud
이 필수 가이드를 읽고 생성형 AI 거버넌스의 주도권을 잡으세요
Hear monthly from our Cloud CISO in your inbox
Get the latest on security from Cloud CISO Phil Venables.
Subscribe*본 아티클의 원문은 2024년 2월 1일 Google Cloud 블로그(영문)에 게재되었습니다.
다국적 대기업이나 복잡한 규정에 따라 운영되는 조직이 기술 툴킷에 AI를 도입하고 싶어 하는 것은 흔한 일입니다. 이들 조직에서는 먼저 사업성을 판단하기 위해 AI 파일럿을 사용해 봅니다. 어쩌면 AI를 본격적으로 사용하는 방법을 모를 수도 있습니다. 어느 쪽이든 간에 진척은 비효율적이고 더디기만 합니다. AI 검토 프로세스가 조직마다 다른 데다가 AI와 규정이 모두 불확실한 탓에 어려움이 배가되기 때문입니다. 결국, 미래의 언젠가에 AI를 사용하겠지 하며 일단은 미뤄 둡니다.
문제는 그 미래가 바로 지금이라는 점입니다. 경쟁 상대도 이를 알고 있습니다. 그러므로 조직은 AI를 회피하는 것이 아니라 목표 달성에 적극 활용해야 합니다.
Google Cloud의 AI 및 비즈니스 솔루션 부문 글로벌 부사장 필립 모이어는 기술 개발과 데이터 거버넌스 사이에서 올바르게 균형을 맞추는 방법에 관한 칼럼에서 이 문제가 대단히 '중요'하고 '긴급'하다고 지적하며 다음과 같이 말했습니다.
"오늘날 리더들은 생성형 AI 기술과 도구를 앞다투어 도입하고 있습니다. 그러나 '이 도구로 무엇을 할 것인가' 다음에 이어지는 질문인 'AI 모델 거버넌스와 위험 관리 문제는 어떻게 해결할 것인가'라는 질문은 여전히 해소되지 않은 상태입니다. 특히 생성형 AI를 비즈니스 환경에서 사용하는 경우에는 정확성, 개인 정보 보호 및 보안, 규정 준수, 지식 재산 침해 등과 관련해 다방면의 위험에 노출될 수 있습니다."
다른 디지털 혁신과 마찬가지로 반복 가능한 프로그래매틱 구조를 만들면 일관된 접근 방식으로 AI 사용 사례를 평가하는 데 도움이 됩니다. 또한 보안 및 규정 준수 구현과 관련된 다양한 측면을 고려하여 종합적으로 감독하는 데도 유용합니다.
AI를 사용하면 직원들의 단순 반복 업무와 위협의 집중, 인재 격차 등 많은 과제를 해결하는 데도 도움이 됩니다. 사업성을 지속적으로 유지하고 성공을 계속해 나가려면 조직 내에서 목표, 역할 및 책임, 에스컬레이션 경로를 적절하게 조정하는 것이 중요합니다. 먼저 거버넌스 구조를 정의하고 조직 전반의 AI 혁신 전략이라는 맥락에서 거버넌스가 수행하는 역할을 명확하게 규정하세요.
조직의 이러한 과제 해결에 도움을 드리기 위해, AI 구현을 대규모로 간소화하고 운영 효율화할 수 있는 권장사항 10가지를 소개합니다.
- 다양한 분야의 주요 이해관계자를 확인하여 해당 주제의 전문 지식을 참고하여 AI 이니셔티브를 평가하세요. 조직에 따라 정확한 직무명은 다르겠지만, 일반적으로 IT 인프라, 정보 보안, 애플리케이션 보안, 위험, 규정 준수, 개인 정보 보호, 법률, 데이터 사이언스, 데이터 거버넌스, 서드 파티 위험 관리팀 등의 담당자를 포함하면 됩니다.
- 조직의 AI 기본 원칙을 정의하여 기본적인 요구사항과 기대치, 범위를 명백히 벗어나는 사용 사례를 제외하세요. 이 기본 원칙은 유연해야 하며, 규범에 지나치게 의존하지 않되 조직이 준수하는 약속에 기반해야 합니다. 예를 들어 고객의 개인 정보 보호에 중점을 둔다거나, 특정한 사용 사례의 경우에는 AI로 생성된 의사 결정을 직원이 검토하는 과정을 거치도록 할 수 있습니다. 예시를 살펴보려면 Google의 책임감 있는 AI 원칙을 참조하세요.
- 프레임워크를 사용하세요. Google의 안전한 AI 프레임워크(SAIF)와 같은 프레임워크를 통해 안전하고 일관된 방식으로 AI 구현에 접근하세요. 단, 보안 프레임워크 함정에 빠지지 않도록 주의하세요. 프레임워크는 단지 도구일 뿐, 프레임워크 사용이 목표 그 자체가 되서는 안 됩니다. 그보다는 SAIF와 같은 프레임워크는 AI의 다양한 측면을 종합적으로 고려하여 AI 구현에 접근하는 데 유용한 방법이라고 할 수 있습니다. 예를 들어 AI 도구 인벤토리를 기술 변경 관리 프로세스와 결합하여 AI 배포를 최신 상태로 유지한다거나, AI 도구에 영향을 줄 수 있는 새로운 유형의 공격을 고려하여 위협 관리 실행에 AI 배포를 포함하는 식입니다.
- 관련 정책 및 절차를 문서화하고 구현하여 AI를 설계, 개발, 배포, 운영하세요. 해당 리소스의 소유권은 대개 팀에 따라 다르며, AI 거버넌스를 효과적으로 감독하려면 정확성과 무결성, 균형을 유지하기 위해 모두 함께 노력해야 합니다.
- 조직의 전략과 위험 성향을 고려하는 AI 사용 사례를 명시하세요. 비즈니스 우선순위 및 발생할 수 있는 위험 수준에 따라 순위를 매긴 다음, 그에 맞춰 보안 및 데이터 보호 제어를 조정합니다.
- 조직의 데이터 거버넌스 프로그램에 연결하세요. 일반적으로 AI 모델에 사용하는 고품질 데이터는 적절한 소싱과 정리, 정규화를 거쳐야 합니다. 데이터 세트를 신중하게 선택하고 구체적인 니즈에 맞춰 AI 모델을 조정하면 할루시네이션이 발생할 가능성과 프롬프트 삽입 과정에서의 위험을 최소화하는 데 도움이 됩니다.
- 규정 준수, 위험, 법률 이해관계자와 긴밀하게 협력하세요. AI 규정은 빠르게 변화하는 분야입니다. 조직의 규정 준수 상태를 유지하고 전반적인 거버넌스 프로세스에 정보를 반영하려면 반드시 규정 요건을 철저하게 준수해야 합니다.
- 에스컬레이션 지점을 설정하여 질문이 제시되었을 때 명확한 답변을 제공할 수 있는 경로를 마련하세요. 어떤 조직에서는 내부 문의를 법무팀이나 규정 준수팀, 정보 보안팀으로 전달하고 싶어 할 수 있으며, 또 다른 조직에서는 지정된 위원회에 의사 결정 권한을 부여하는 편을 선호할 수 있습니다.
- 고위 경영진, 이사회 등 내부 이해관계자와 관련 규제 기관 등 외부 이해관계자 모두에게 각 AI 이니셔티브의 상태에 대해 가시성을 제공할 수 있도록 메커니즘을 구현하세요.
- 맞춤형 AI 교육 프로그램을 도입하여 전 직원이 AI와 관련된 주요 개념과 잠재적 과제를 이해할 수 있도록 지원하세요. 집중적인 모듈형 방식으로 접근하여 직원이 맡은 역할에 따라 맞춤형 콘텐츠를 제공하면 기술 개발을 지원하고 섀도 AI 사용 등 피해야 할 위험을 폭넓게 이해하는 데 도움이 됩니다.
생성형 AI 거버넌스 여정의 다음 단계
AI 전문 임원이 누구인지 확인하고 대화를 시작하세요. 해당 임원은 조직의 AI 전략에 가시성을 제공하고 다양한 분야의 이해관계자를 한데 모으는 협업적 접근 방식을 취해야 하며, AI 사용 사례와 이를 충족하기 위해 조직 전체가 어떻게 발전해 나가야 하는지를 명확하게 제시할 수 있어야 합니다. 이 여정을 시작할 때 실용적인 실무형 학습 리소스인 Google Cloud Generative AI Skills Boost를 참고하면 도움이 되실 겁니다.
AI 보안에 대한 자세한 내용은 Google Cloud에서 제공하는 자료 'AI 보안: 유사점과 차이점'과 '신뢰성 있는 AI 개발을 위한 Google Cloud의 접근 방식'을 확인하세요.