콘텐츠로 이동하기
AI 및 머신러닝

책임감 있는 AI를 통한 비즈니스 관리

2020년 10월 20일
https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_forBiz.max-2600x2600.jpg
Tracy Frey

Director, Product Strategy & Operations, Cloud AI

GCP 사용해 보기

$300의 무료 크레딧과 20개 이상의 항상 무료인 제품으로 Google Cloud 사용을 시작해보세요.

무료 체험

* 본 아티클의 원문은 2020년 9월 1일 Google Cloud 블로그(영문)에 게재되었습니다. 

어떤 이들은 10년 안에 인공 지능(AI)이 글로벌 GDP 성장의 주요 동력이 될 것이라고 예측합니다1. 이것은 엄청난 예언입니다. 앞으로 10년 동안 우리는 놀라운 AI 도입과 혁신을 목격하게 될 것입니다. AI가 지원되지 않는 애플리케이션은 마치 문제가 있는 것처럼 보여질 수도 있습니다.

이러한 기대에도 불구하고 동시에 AI에 대한 신뢰도 부족으로 많은 기업이 AI 도입을 주저하는 경우도 실제로 많이 접하고 있습니다. 전 세계 기업 경영진을 대상으로 실시한 설문조사에서 90%가 넘는 경영진이 AI 시스템 도입과 관련된 윤리적 문제를 보고했습니다. 그중 40%의 기업은 AI 도입 프로젝트를 완전히 포기했습니다2. 윤리적 우려에 대한 엄정한 평가와 AI의 책임감 있는 구축 및 배포가 선행되지 않는다면 더 많은 프로젝트가 중단되어 AI 기술의 이점을 실현하는 데 차질이 생길 위험이 있습니다.

Google은 AI의 책임감 있는 구축 방식을 엄격하게 평가하는 것이 옳은 일일 뿐만 아니라 성공적인 AI 구축에 중요한 요소라고 생각합니다.

Google은 2017년 중반에 자체적인 AI 원칙을 개발하기 시작해 약 1년 뒤인 2018년 6월에 공표했으며 지금은 이 원칙이 최첨단 기술 구축, 연구 수행, 정책 수립 방침을 안내할 때 참고하는 일종의 '살아 있는 헌법(living constitution)'으로서의 역할을 하고 있습니다. 이러한 AI 원칙을 바탕으로 공동의 목표를 통해 동기를 부여받고, 전 세계의 사회에 가장 큰 이익이 되는 방향으로 최첨단 기술을 활용하며, Google의 사명과 핵심 가치에 부응하여 모든 결정을 내리고 있습니다. 이 원칙은 Google의 Deployed AI 솔루션의 장기적 성공에도 필수적인 요소입니다. 한편, 2년이 지난 지금도 여전히 AI 원칙만으로는 제품을 어떻게 빌드할 것인지에 관한 의문에 바로 대답하지 못하고 있습니다. AI 원칙이 있다고 해서 이 까다로운 논의를 회피할 수는 없으며 회피해서도 안 됩니다. AI 원칙은 우리가 나타내려는 것, 빌드하는 제품, 빌드하는 이유를 확고히 하는 토대이며 Google 기업용 AI 솔루션이 성공하는 데 핵심적인 요소입니다.

Google Cloud에서 AI 원칙을 구현하는 방식

Google의 거버넌스 프로세스는 AI 원칙을 체계적이고 반복 가능한 방식으로 구현하도록 설계되어 있습니다. 이러한 프로세스에는 제품 및 거래 검토, 머신러닝 개발을 위한 권장사항, 내부 및 외부 교육, Cloud의 Explainable AI와 같은 도구 및 제품, 고객 및 파트너에게 컨설팅하고 이들과 협력하는 방법에 관한 안내 등이 있습니다.

Cloud에는 두 개의 서로 다른 검토 프로세스를 만들었습니다. 하나는 우리가 최첨단 기술로 빌드하는 제품에, 다른 하나는 커스텀 작업과 연관된 초기 단계 거래에 집중합니다. 참고로 이러한 커스텀 작업은 정식 버전 제품의 수준을 넘습니다.

제품 개발 조정

https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_product_review.max-1400x1400.jpg

Google은 이 프로세스를 시작할 때 일반 안정화 버전으로 이미 출시된 유사 제품과 서비스는 물론이고 최첨단 기술로 개발에 착수하는 새 제품과 서비스에 대해 엄격하고 심층적인 윤리적 분석을 수행하고, 각 원칙 하나하나에 대해 위험 요소와 기회를 평가하며, 까다롭지만 영감을 주기도 하는 논의가 이어질 수 있는 엄격한 실시간 검토를 진행합니다. 머신러닝의 공정성, 내재적 편향, 원래의 고유한 환경이 AI에 영향을 받는 환경과 크게 다를 수 있는 부분, 주어진 제품으로 계속 작업을 진행할지 여부를 판가름할 기타 다양한 고려사항 등 중요하지만 어려운 주제에 대해 자유롭게 논의합니다. 많은 시간을 들여 검토팀 사이에 '심리적 안전감(psychological safety)'을 형성, 유지하는 데 집중함으로써 모든 의견과 주제를 경청하고 소중히 다룰 수 있습니다. 시간이 지나면서 이러한 검토 문화 덕분에 잠재적으로 부정적인 결과를 가져올 수 있는 사안에 대한 논의가 수월해졌으며 이를 통해 이러한 문제 발생을 방지하는 데 노력할 수 있게 되었습니다.

커스텀 AI를 사용한 고객 거래 조정

계약 체결 이전의 초기 단계 상거래도 검토 대상이며 여기에는 고객용 커스텀 AI의 빌드 작업이 포함됩니다. 우리는 특정 프로젝트에서 최첨단 기술이 AI 원칙에 위배되는 방식으로 사용될 것인지 여부를 조기에 판단하기 위해 노력합니다.

https://storage.googleapis.com/gweb-cloudblog-publish/images/AI_deal_review.max-1500x1500.jpg

평가 방식에서 전문 지식을 쌓아 나가고, 시간이 지나면서 일종의 '판례'를 개발하고, 어디까지 책임의 한계를 둘 수 있는지 심사숙고하는 가운데 계약 검토에 포함할 범위와 제외할 범위를 반복하고 또 반복해서 검토했습니다. 일반 안정화 버전 제품을 심층적으로 검토하고 제품마다 조율 계획을 수립했기 때문에 그러한 제품을 활용하는 고유한 사용 사례와 커스텀 사용 사례에 초점을 맞춰 거래 검토를 수행할 수 있게 되었습니다.

제품 검토를 통해 로드맵과 권장사항 제시

이러한 검토를 통해 향후의 경로는 다양한 형태로 나타날 수 있습니다. 범용 API보다는 구체적인 사용 사례에 초점을 맞춰 제품을 면밀히 검토할 수도 있습니다. 예를 들어 얼굴 인식 기능을 고려할 때 구체적이고 세심한 구현 방식을 선택한 결과 Celebrity Recognition API를 설계하게 되었습니다. 그보다 간단한 예는 교육 자료 또는 제품 출시 관련 권장사항입니다. 여기에는 모델 카드 또는 포괄적인 ML 가이드와 같은 보다 구체적인 구현 가이드 등이 있습니다. 정책이나 서비스 약관을 구현하는 경우도 있고 제품으로 더 이상 작업을 진행하지 않기로 결정할 수도 있습니다.

지난 몇 년 동안 우리는 수많은 권장사항을 개발해 왔으며 자체적인 원칙을 수립하려는 조직을 대할 때 이러한 권장사항을 종종 공유한 바 있습니다. 이러한 권장사항은 다음과 같습니다.

  • 윤리 체크리스트의 형태 탈피. 좋고 나쁨을 쉽게 가려 담을 수 있는 결정 트리 목록을 작성해야 겠다는 생각이 들 수 있습니다. 저도 이번 여정을 시작하면서 다른 사람들처럼 직접 이 방법을 시도해 보았습니다. 하지만 아쉽게도 이 방법은 가능하지 않았습니다. 기술, 데이터, 사용 사례, 적용된 위치와 방식 등을 종합해 고려해야 했고 결국 조율 결정이 필요했습니다. 그 과정은 서로 비슷할 수는 있으나 똑같은 경우는 결코 없습니다.

  • 책임감 있는 설계. 개발 수명 주기 초기 단계에서의 심층적 검토를 목표로 하며, 정확한 조율을 위해 꼭 필요한 것으로 입증되었습니다. 

  • 다양한 의견 반영. 본 검토 위원회의 상임 위원들은 Google 내 다양한 기능, 기술직과 비기술직을 망라하고 있습니다. 사회 과학, 철학, 윤리학 분야의 배경을 지닌 이들은 의도적으로 신입 직원부터 최고경영진까지 다양한 직급으로 꾸려졌습니다. 특히 상임 위원들의 경험에 의지해서 결정을 내리기가 어려울 때 내외부의 의견을 모두 반영하는 것을 우선으로 여깁니다. 외부의 영역별 전문가와 영향을 받는 대상 그룹으로부터 의견을 직접 수렴하는 것도 중요합니다. 예를 들어 BSR과 같은 조직에서 제공하는 '인권영향평가(Human Rights Impact Assessments)'를 Google의 '인권실사(Human Rights Diligence)'에 포함시킨 것도 큰 도움이 되었습니다. 모든 의견을 경청하는 것은 필수적이지만 쉬운 일은 아닙니다.

  • 지지하는 문화. 이러한 조직 문화를 만드는 데 경영진의 요구는 필요조건이지만 충분조건은 아닙니다. 핵심은 전사적인 문화 혁신에 있습니다. 문화를 바꾸려면 기술 윤리에 대한 교육으로부터 출발합니다. 흔히 가치 중립적이라고 생각될 수 있는 기술에 윤리를 적극적으로 접목해 사고하도록 하는 것입니다. 혁신적 기술이 피해를 끼칠 수 있다는 점을 이야기하는 것은 불편할 수도 있지만 설령 어렵더라도 적절한 모델링을 통해 차근차근 노력해 나가는 것이 바람직합니다. 

  • 투명성. 신뢰 확보야말로 우리가 이러한 원칙과 실천을 유지하고 지속해야 하는 핵심적인 이유입니다. 한편으로, 모든 결정에서 투명성을 보장하는 것은 개인정보 보호를 위한 노력에 반하므로 그러한 수준까지 투명성을 확보할 필요는 없습니다. 세상 그 어떤 결정도 모두의 동의를 얻어낼 수는 없습니다. 그렇다고 그것이 문제가 되는 것은 아닙니다. 우리는 결정 과정에 대해 이해하기 위해 노력하는 것이며 그러면 이견이 발생한다 해도 그 과정에서 신뢰를 쌓을 수 있습니다.

  • 겸허한 접근 방식. AI는 빠르게 진화하고 있으며 우리를 둘러싼 세계는 끊임없이 변화합니다. 우리는 항상 새로운 것을 배우고 있으며 완벽한 제품을 완성한다는 것은 도달하기 어려운 목표일지 모르나 언제나 개선시킬 수 있다는 사실을 의식적으로 항상 기억하려고 합니다. 우리는 앞으로 시간이 지나면서 더 어려운 결정을 하게 될 것이며 그 예로는 Cloud Vision API에서 성별 라벨을 삭제하는 것을 들 수 있습니다. 이러한 변화는 내부적으로나 외부적으로나 설명하기 어려울 수 있지만 우리는 최첨단 기술의 복잡한 현실을 겸허하게 받아들이기 위해 노력합니다.

  • 쉽게 측정하기 어려운 작업 성과. 원칙의 조정 성과는 대개 계량화할 수 없고 주관적이며 문화와 연관이 있고 분명하게 정의할 수 없는 경우가 많습니다. 하지만 이러한 문제는 수시로 존재하고 우리는 그에 합당한 조치를 취해야 함은 분명합니다.

문제 해결을 위한 변함없는 노력

인간은 기술 설계에 의해 영향을 받지만 그 중심에 서 있기도 합니다. 또한 인간은 항상 모든 이들의 요구와 일치하는 결정을 내리지는 않습니다. 이와 관련해, 이미 시정 조치를 거친 두 가지 예를 보여드리겠습니다. 

  • 2011년까지 자동차 제조업체들은 여성의 몸을 본 딴 충돌 테스트 더미 인형을 사용할 필요가 없었습니다. 결과적으로, 여성은 차 사고에서 심각한 부상을 입을 가능성이 남성보다 47%가 더 높았습니다3

  • 수십 년 동안 접착 밴드, 팬티스타킹, 그리고 크레용조차도 흰색 피부 톤을 기준으로 제작되어 어두운 피부색을 가진 사람들은 피부색에 맞는 옅은 분홍색 반창고와 피부를 밝게 하는 누드 스타킹을 사용해야 했고 복숭아색 톤의 크레용만 '살색'으로 사용해야 했습니다.

https://storage.googleapis.com/gweb-cloudblog-publish/images/band-aid.max-1300x1300.jpg

제품과 기술은 모두에게 도움이 되어야 합니다. 불공정한 편견이 발생하는 이유는 많습니다. 우리는 이러한 근본 원인과 상호작용을 구분하기 위해 노력합니다. 상호작용의 예로 입력 데이터에 스며들어 있는 사회적 맥락을 들 수 있습니다.

제품과 서비스는 결코 홀로 존재하지 않습니다. Google은 접근 방식에 사회적 맥락을 고려하기 위해 애쓰며 단순한 기술 분석 이상의 노력을 기울입니다. 피해의 가능성을 파악하고 이러한 피해를 완화하거나 방지하는 한편으로 기술이 우리 모두에게 가져다 줄 수 있는 이점을 극대화하기 위해 최선을 다합니다.

책임감 있는 AI는 Google Cloud의 Next OnAir 디지털 컨퍼런스에서 핵심 주제입니다. 여기서 저는 현재 적용되고 있는 책임감 있는 AI의 권장사항과 예시를 집중 소개하는 세션을 진행합니다.


1. McKinsey & Company, “AI 선두주자의 노트: AI가 세계 경제에 미치는 영향 모델링”(2018년 9월)

2. Capgemini, “대중의 신뢰와 충성을 확보하기 위해 조직에서 AI의 윤리 문제를 해결해야 할 필요성”(2019년 7월)

3. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3222446/
게시 위치