인류에게 이로운 AI 빌드: Google DeepMind 리더와의 대화

Chau Mai
Global Executive Marketing Manager, Google Cloud
인류에게 이로운 AI 빌드를 주제로 Google DeepMind 리더들과 대화를 나누었습니다. 특히 안전, 포용성, 그리고 인간의 지능과 창의력을 강화해 주는 협업 파트너로서의 AI에 대해 중점적으로 다룹니다.
* 본 아티클의 원문은 2024년 12월 5일 Google Cloud 블로그(영문)에 게재되었습니다.
AI는 더 이상 공상과학 속 이야기가 아닙니다. AI가 세상을 바꾸고 있으며 우리는 이제 겨우 그 방식을 이해하기 시작했습니다. 하지만 생성형 AI의 인기에 힘입어 AI가 산업 전반에 확산됨에 따라 리더들은 안전하고 윤리적이며 신뢰할 수 있는 AI를 빌드하는 동시에 빠르게 확장해야 한다는 중요한 과제에 직면했습니다.
Custom Content from WSJ에서 진행하는 팟캐스트 'AI That Means Business'의 최신 에피소드에서 Google DeepMind 최고 기술 책임자 Koray Kavukcuoglu는 "AI 기술의 도입, 즉 AI를 사용자가 수용하고 다양한 제품에 사용하는 방식을 살펴보면, 적용 사례가 기하급수적으로 확장되고 있습니다. 속도가 매우 빠릅니다. 때로는 너무 빠른 감도 있습니다."라고 언급했습니다.
Google의 AI 연구소 Google DeepMind는 인류에게 이로운 AI를 빌드하기 위해 최선을 다하고 있습니다. 과학 발전에 이바지하고, 업무를 혁신하며, 다양한 커뮤니티에 서비스를 제공하여 수십억 명의 삶을 개선하는 것을 목표로 하는 획기적인 AI 제품의 개발과 발전을 주도하고 있습니다. 과학자, 엔지니어, 윤리학자로 구성된 이 혁신적인 팀은 생성형 AI의 기술적 토대 중 하나인 Transformer 아키텍처를 비롯해 최신 AI를 뒷받침하는 중요한 발전을 이끌어 왔습니다.
Kavukcuoglu와 Google DeepMind 최고 운영 책임자 Lila Ibrahim이 출연한 이 에피소드에서는 내부에서 바라보는 AI의 현황, 윤리적 고려사항, 세상을 바꾸는 AI의 잠재력에 대해 자세히 엿볼 수 있습니다. 이 팀에서 업무 수행 시 가장 먼저 고려하는 주요 우선순위 3가지를 소개합니다.
1. 안전과 책임을 최우선으로 삼기
Kavukcuoglu에 따르면 지금 우리는 AI가 연구 단계에서 실제 적용 단계로 빠르게 전환하고 있는 중요한 시점에 있습니다. 예를 들어 Alphabet과 Google Cloud 파트너 Isomorphic Labs는 AI 모델을 활용해 신약 발견을 가속화하고 있습니다. 글로벌 의료 서비스 리더 Bayer는 생성형 AI의 도움을 받아 의약품 및 의료 기기 개발을 빠르게 추적할 수 있게 되었습니다. Ginkgo Bioworks에서는 생명공학 및 차단 방역을 위한 대규모 언어 모델 개발에 앞장서고 있습니다. 최근 생성형 AI의 발전으로 인해 데이터를 정리하고 이해하며 데이터와 상호작용하는 새로운 방법이 등장하면서 사용자가 자연어로 AI와 소통할 수 있게 되었고 산업 전반의 AI 도입이 더욱 빨라지고 있습니다.
한편, 조직에서는 AI 개발로 인해 발생할 수 있는 잠재적인 문제, 한계 또는 의도하지 않은 결과를 그 어느 때보다 더 잘 이해해야 합니다. Kavukcuoglu는 AI 개발이 비행기 또는 다리를 설계하는 과정과 상당히 유사하다고 말합니다. 그는 설계 프로세스에서부터 안전을 필수로 다루어야 하며 이는 사후 고려사항이 아니라고 강조합니다. 최첨단 AI 기술을 개척하는 Google DeepMind의 철학 역시 이 원칙을 핵심으로 합니다.
"비행기나 다리를 설계할 때 안전을 나중에 고려하는 경우는 없습니다. 처음부터 안전하게 설계합니다. AI 초기 단계에 있지만 Google DeepMind에서는 안전이 모델 개발의 핵심이라는 기본 원칙을 고수하고 있습니다."라고 Kavukcuoglu는 말합니다.
책임감 있는 AI는 예전부터 중요한 주제였지만, 생성형 AI의 범위가 확대되고 기술이 점점 더 정교해짐에 따라 잠재적인 악용, 오용 또는 예상치 못한 결과에 대한 시나리오도 늘고 있습니다. 예를 들어 Google에서 현재까지 가장 크고 강력한 AI 모델인 Gemini와 같은 멀티모달 모델은 텍스트, 코드, 오디오, 이미지, 동영상 등 다양한 형식의 정보를 원활하게 처리, 통합, 분석할 수 있습니다. 이 같은 다용도성은 다양한 컨텍스트 인지, 정확성 향상, 광범위한 엔터프라이즈 적용 사례를 지원할 뿐만 아니라 개발자, 데이터 과학자, 분석가, 비즈니스 사용자, 고객 등 더 많은 사람들에게 AI를 사용할 수 있는 기회를 제공합니다.
Ibrahim은 AI의 가능성이 방대하고 고무적이기는 하지만, 그럴수록 Google DeepMind뿐만 아니라 모든 조직이 책임감 있는 AI 개발 관행을 활동의 중심에 두어야 한다고 강조합니다.
Ibrahim은 "인류에게 이로운 AI를 책임감 있게 빌드하기 위해 최선을 다하고 있습니다. Google DeepMind는 실제로 이런 방식으로 AI를 외부 세계에 적용하고 있습니다. 그렇다면, 기술을 출시할 때 또는 그 이전부터 AI가 사회에 미칠 영향을 생각하고, 가장 책임감 있는 관행을 따르고 있는지를 어떻게 확인할 수 있을까요?"라고 말했습니다.
비행기나 다리를 설계할 때 안전을 나중에 고려하는 경우는 없습니다. 처음부터 안전하게 설계합니다. AI 초기 단계에 있지만 Google DeepMind에서는 안전이 모델 개발의 핵심이라는 기본 원칙을 고수하고 있습니다.
Koray Kavukcuoglu, Google DeepMind, CTO
2. 포용성은 필수
책임감 있는 AI를 위해 노력 중인 Google DeepMind에서는 더욱 다양한 목소리가 반영되어야 보다 윤리적이고 유익한 AI 시스템을 만들 수 있다는 점을 잘 알고 있습니다.
Ibrahim은 "많은 하드웨어와 인프라, 그리고 정책이 필요했던 컴퓨터나 인터넷과는 달리 이제는 모델이 하나 출시되면 이를 전 세계에서 사용할 수 있습니다. 지리적 경계가 없다는 뜻입니다. 따라서 커뮤니티가 이 기술을 발전시킬 준비가 되어 있는지 확인할 방법을 고민해야 합니다."라고 말합니다.
Ibrahim은 이러한 문제를 해결하려면 기회는 물론 편향이나 오용 같은 잠재적 위험을 감안하여 단기적 영향과 장기적 영향을 모두 고려해야 한다고 말합니다. 특히 이러한 접근 방식은 단백질의 3차원 구조를 예측하여 신약 개발, 질병 이해, 기후 변화 완화 등의 영역에 혁신을 일으킬 수 있는 획기적인 AI 시스템인 AlphaFold에 대한 Google DeepMind의 연구에도 반영되고 있습니다. 팀에서는 초기 단계부터 생명 윤리 분야의 외부 전문가와 다양한 이해관계자의 자문을 얻어 시스템 출시가 미치는 영향을 분석했습니다.
더 다양한 관점을 수용하기 위해 Google DeepMind는 교육자, 아티스트, 장애인을 비롯한 여러 커뮤니티와 적극 협력하여 각 커뮤니티의 니즈를 파악하고 AI를 포용적인 방식으로 개발 및 배포하기 위해 노력하고 있습니다. 또한 팀은 Google의 AI 개발 및 적용 방식을 정립하는 데 도움이 될 견고하고 포용적인 인재 파이프라인을 구축하기 위해서도 애쓰고 있습니다.
Ibrahim은 "AI의 빌드 및 사용 방식 모두에 특별히 주의를 기울여야 합니다. 그럴 가치가 있을 뿐만 아니라 꼭 필요한 일이기도 합니다. 진정으로 인류에게 도움이 되고자 한다면 더욱 다양한 관점에서 무슨 일이 일어나고 있는지, 어떻게 AI를 적용할 수 있는지 고민해야 합니다."라고 말합니다.

3. 협업 파트너로서의 AI
Google DeepMind는 앞으로 몇 년 내에 이러한 새로운 발전이 다양한 작업에서 인간의 지능에 필적하는 범용 AI(AGI)를 달성할 수 있는 길을 열어줄 것으로 믿습니다. 이 목표는 아직 개념 단계에 있지만 Kavukcuoglu는 AI가 협업 파트너의 역할을 하고, 인간의 지능과 창의력을 강화하고, 복잡한 문제를 해결하도록 지원하며, 궁극적으로 삶을 개선해 주는 미래가 예상보다 더 빨리 올 것이라고 말합니다.
Kavukcuoglu는 "현재 기술의 기본적인 사항에 대한 입증을 마친 상태입니다. 데이터로 학습할 수 있는 알고리즘을 개발하는 방법은 물론 특정 환경에서 실험할 수 있는 에이전트를 개발하는 방법을 알아냈으며, 이러한 환경과 상호작용하는 방식도 파악했습니다. 그리고 다양한 형식을 이해하고 이러한 형식에서 여러 합성 데이터를 생성하는 기술을 개발하고 있습니다. 이제는 이 모든 것을 결합하는 단계에 이르렀습니다."라고 말합니다.
이미 Google DeepMind팀은 AGI의 토대를 마련하고 많은 사람들이 다양한 유형의 작업을 할 수 있도록 돕는 범용 기술을 구축하는 데 집중하고 있습니다.
Kavukcuoglu는 "특정 분야에 특화된 AI를 빌드하려는 것이 아닙니다. 다양한 작업에서 인간의 지능과 창의력을 강화해주는 범용 기술을 목표로 하고 있습니다. Gemini의 경우 처음부터 네이티브 멀티모달 모델을 구현하기 위해 막대한 투자를 해왔습니다. 실제로 텍스트, 이미지, 동영상, 오디오를 동시에 원활하게 이해할 수 있는 흥미로운 애플리케이션들이 등장하기 시작했습니다."라고 말합니다.
Kavukcuoglu와 Ibrahim은 AI를 가리켜 단순한 기술이 아니라 인간이 잠재력을 발휘하고 더 나은 세상을 만드는 데 도움을 주는 협업 파트너라는 설득력 있는 비전을 제시합니다. AI의 힘을 선한 목적으로 활용하고 AI가 진정으로 모든 인류에게 도움이 되는 미래를 보장하기 위해서는 먼저 AI가 미치는 영향과 개발자의 책임에 관한 개방적이고 사려 깊은 논의가 이루어져야 합니다.
Google DeepMind는 전 세계 AI 혁신의 중심에 있습니다. 전체 팟캐스트 에피소드를 확인하여 Google DeepMind의 리더인 Koray Kavukcuoglu와 Lila Ibrahim이 설명한 AI의 미래와 AI 빌드 및 사용 방식과 관련된 안전과 책임을 위한 이들의 노력에 관해 자세히 알아보세요.