콘텐츠로 이동하기
보안 & 아이덴티티

AI가 디지털 보안을 강화하는 방법

2023년 6월 9일
https://storage.googleapis.com/gweb-cloudblog-publish/original_images/ai-blog_hero_g2RBGtJ.gif
Phil Venables

VP/CISO, Google Cloud

Royal Hansen

VP, Engineering for Privacy, Safety, and Security

AI가 혁신적인 변화의 촉매제 역할을 하고 있으며 기술이 가져올 미래 가능성의 새로운 지평을 열고 있습니다. 전 세계 커뮤니티, 기업, 국가의 잠재력을 실현시킬 가능성을 지닌 AI는 수십 억 인구의 삶을 향상할 수 있는 의미 있고 긍정적인 변화를 불러옵니다. 비슷한 맥락에서, 기술의 발전으로 사용자가 보안 위험을 감지하고, 해결하고, 최소화하는 방식도 크게 개선될 가능성이 있습니다.

AI 여정에서 중대한 순간에 서 있는 Google

생성형 AI의 획기적인 발전으로 사람과 기술이 상호작용하는 방식이 근본적으로 변화하고 있습니다. Google Cloud는 개발자와 조직이 이러한 변화에 한발 앞서 대응하도록 돕기 위해 노력하고 있습니다. 바로 이런 이유에서 최근 Google Cloud AI 포트폴리오에 새롭게 추가된 생성형 AI 기능을 발표했으며 생성형 AI를 Google 서비스에 책임감 있게 접목한 다양한 제품을 출시하는 데 힘쓰고 있습니다. 

Google의 이러한 노력을 관통하는 AI 원칙이 있습니다. Google은 책임감 있는 AI 관행을 도입하고 발전시킨 선도 기업 중 하나이며, Google 제품을 기반으로 비즈니스를 안전하게 구축하고 성장시키는 전 세계 고객을 위해 이러한 AI 원칙을 토대로 지속적인 노력을 기울이고 있습니다. 자세한 내용은 Google의 AI 원칙 실천을 소개하는 블로그를 읽어보세요. 

AI로 실제 문제를 해결하면서 경험을 축적한 효과 중 하나는 AI 활용이 주류가 된 새로운 기술을 더 효과적으로 보호해 주는 파트너가 될 수 있었습니다. 이와 동시에 Google은 최근의 AI 기술 발전을 이용하여 독보적이고 실행 가능한 최신 위협 정보를 제공하고 공격 표면과 인프라 전반을 보다 정확하게 파악할 수 있는 가시성을 제공해 줍니다. 사이버 보안의 향상이 인간의 노력만으로는 해결할 수 없는 과제가 되어 버린 상황에서 앞으로 다가올 시대에 대비하기 위해 AI와 협력을 이어가게 된 것을 기쁘게 생각합니다. 

Google은 기본 원칙에 기반한 목표를 추구합니다. 보안 생태계에 크고 선한 영향력을 미칠 수 있는 AI가 그 잠재력을 발휘하기 위해서는 강력하고 책임감 있는 배포가 선행되어야 한다는 것입니다. 이 원칙 추구는 마치 디지털 면역 체계와 같습니다. 이전 위험에서 교훈을 얻고 배운 지혜를 Google의 디지털 상태에 맞게 적용할 때 시스템은 미래의 공격을 예측하고 그로부터 보호할 만반의 준비를 갖추게 됩니다. AI 기술의 효과를 극대화하고 위험을 최소화하기 위해 Google은 보안, 확장, 진화라는 세 갈래 접근법을 취하고 있습니다.

https://storage.googleapis.com/gweb-cloudblog-publish/images/1_ai-blog_prong-secure.max-1600x1600.max-1300x1300.png

1. 보안: 조직이 AI 시스템을 자체 배포하도록 지원

Google은 조직이 안전한 AI 시스템을 배포하도록 돕습니다. 다른 보안 과제와 동일한 방식으로 AI 시스템에 접근합니다. 겉으로 잘 드러나지는 않지만, 업계 최고 기술력을 자랑하는 보안 기능을 통합하고 기본적인 보안으로 사용자를 안전하게 유지해 줍니다. 기술 제어, 계약 보호, 제3자 확인 또는 증명이 여기에 해당합니다.

뿐만 아니라 Google의 데이터 보호, 액세스 제어, 변경 관리 도구와 통합되는 표준화된 머신러닝용 플랫폼과 도구를 제공합니다. ML 모델과 AI 애플리케이션의 학습과 배포를 처리하는 머신러닝 플랫폼인 Vertex AI에서 고객은 코드 없이 모델을 학습시키고 최소 수준의 전문 지식으로 흔히 발생하는 실수를 방지하며 잘못된 구성과 공격 표면을 최소화하는 등 다양한 모델링 문제를 해결할 수 있습니다. Vertex AI는 데이터 수집과 분류를 제어하는 강력한 데이터 거버넌스 플랫폼을 보완하며 Google은 기존의 데이터 처리에서 보여준 데이터에 대한 책임감 있는 자세를 머신러닝 데이터에도 그대로 적용하기 위해 노력합니다.

https://storage.googleapis.com/gweb-cloudblog-publish/images/2_ai-blog_prong-scale.max-1600x1600.max-1300x1300.png

2. 확장: AI 성능을 이용하여 더 나은 보안 결과 실현

Google은 조직이 더 나은 보안 결과를 대규모로 실현하도록 도와주는 AI 기반의 최신 제품과 서비스를 지속적으로 출시하고 있습니다. 보안 커뮤니티는 예전부터 위협에 사후 대응하는 접근 방식을 취해왔습니다. 사후 대응 조치는 물론 중요하지만 지속 가능하지 않다는 단점이 있습니다. 오늘날의 역동적인 위협 환경에서 조직은 공격의 속도와 범위를 따라잡기 위해 많은 노력을 기울이고 있지만 무력감을 느끼는 방어 조직들이 적지 않습니다.

AI 기술이 모든 보안 문제를 해결해 주는 만능 솔루션이 될 수는 없지만 몇 가지 초기 사용 사례에서 AI가 보안 산업의 판도를 바꿀 수 있다는 가능성을 볼 수 있었습니다.

  • 비정상적이고 악의적인 동작 감지 
  • 보안 관련 추천 자동화
  • 보안 전문가 생산성 확장 

현재 Google 제품이 고도의 동적 시스템을 보호하는 보안의 무거운 짐을 덜기 위해 AI를 어떻게 활용하고 있는지 몇 가지 예를 들어보겠습니다. 

  • Gmail의 AI 기반 스팸 필터 기능이 분당 1,000만 개에 달하는 스팸 이메일을 차단합니다. 덕분에 피싱 시도와 멀웨어의 99.9%가 받은 편지함까지 도달하지 못하고 무산됩니다. 
  • 업계 선도적인 Google 세이프 브라우징은 Chrome 웹 브라우저에서 직접 실행되는 AI 분류기를 사용하여 위험한 웹사이트를 사용자에게 경고해 줍니다.
  • IAM recommender는 AI 기술을 기반으로 사용 패턴을 분석하여 조직의 환경을 고려한 더 안전하고 맞춤 설정된 IAM 정책을 추천합니다. 이 정책을 구현하면 더 안전하고 비용 효율적이며 우수한 성능의 클라우드를 배포할 수 있습니다.
  • Chronicle Security OperationsMandiant Automated Defense는 종합적인 추론과 머신러닝을 이용하여 중요한 알림을 파악하고 거짓양성을 차단하며 보안 관련 활동 점수를 생성해 알림 피로도를 줄여줍니다.
  • Chronicle용 Breach Analytics는 머신러닝의 도움을 받아 데이터 과학 기반의 '악성 수준' 평가 알고리즘인 Mandiant IC-Score를 산정하며 이 IC-Score는 양성 지표를 필터링하고 관련성 높고 우선적인 IOC에 주력하는 데 도움이 됩니다. 이 IOC와 Chronicle에 저장된 보안 데이터를 매칭하면 추가 조사가 필요한 이슈를 찾아낼 수 있습니다. 
  • reCAPTCHA EnterpriseWeb Risk는 비지도 학습 모델을 이용하여 클러스터에서 도용된 계정과 위조 계정을 감지해 주며, 이를 통해 분석을 위한 조사 시간을 단축하고 계정 보호와 위험 최소화를 위한 조치를 취할 수 있습니다. 
  • Cloud Armor Adaptive Protection은 머신러닝을 기반으로 레이어 7에서 위협을 자동으로 감지하며, 이러한 기능은 최대 규모의 보고된 DDoS 공격 중 하나를 감지 및 차단하는 데 큰 역할을 했습니다.  

이러한 기능들을 통해 조직은 Google AI를 이용하고 운영되는 모든 곳에서 AI를 적용하여 보안 과제를 해결할 수 있습니다.

https://storage.googleapis.com/gweb-cloudblog-publish/images/3_ai-blog_prong-evolve.max-1600x1600.max-1300x1300.png

3. 진화: 미래형 사고방식을 장착하여 위협에 미리 대응

Google은 위협에 한발 앞서기 위해 끊임없이 진화합니다. AI 기술을 활용한 신종 보안 위험이 발생하는 상황에서 이러한 위험을 파악하여 잠재적인 공격으로부터 AI 배포를 효과적으로 보호하기 위해 Google은 계속 노력하고 있습니다. 공격자가 최신 IT 기술을 추구하고 방어 체계를 우회하는 데 활용한다는 기본 가정을 전제로 하여 우리는 이러한 미래 상황을 염두에 두고 기술을 구축해 갑니다. 포스트 퀀텀 암호화, 합성 음성을 통한 음성 인증 회피 시도를 감지하는 방법 등 앞으로 대두될 중요한 주제와 관련하여 괄목할 만한 성과를 이루고, 머신러닝과 AI 시스템을 향한 적대적인 공격을 한발 앞서 조사하여 대응하고, 고객과 협력하여 일반 AI 상호작용과 위험을 해결하는 권장사항, 도구, 위협 모델을 개발하는 활동 등이 여기에 해당합니다.

한 예로 Google은 2011년부터 머신러닝을 이용하여 내부 네트워크에서 잠재적인 공격자를 감지하기 시작했습니다. 현재는 AI 투자를 통해 내부 시스템 공격을 시도하는 레드팀을 찾아낼 수 있게 되었고 최신 AI 개발을 이용하여 레드팀 공격을 지속적으로 수행하기 위해 연구팀과 계속 협력하고 있습니다. 

지속적 순환

종합하자면 Google의 접근 방식은 일선의 인텔리전스가 AI 기반 클라우드의 혁신적인 발전에 발맞춰 향상되는 지속적 순환을 촉진합니다. Google은 개발자, 조직, 다양한 보안 커뮤니티와 함께 강력하고 책임감 있는 AI 기능을 발전시키기 위해 노력하고 있으므로 앞으로도 계속 이 주제를 다루고 탐구할 것입니다.

게시 위치