콘텐츠로 이동하기
보안 & 아이덴티티

Google의 방식: 사이버 보안과 방어를 위한 AI 에이전트 구축

2025년 10월 23일
https://storage.googleapis.com/gweb-cloudblog-publish/images/GettyImages-1349608947.max-2600x2600.jpg
Anton Chuvakin

Security Advisor, Office of the CISO

Dominik Swierad

product development and strategy lead, Detection and Response AI and Sec-Gemini

Get original CISO insights in your inbox

The latest on security from Google Cloud's Office of the CISO, twice a month.

Subscribe

해당 블로그의 원문은 2025년 10월 24일 Google Cloud 블로그(영문)에 게재되었습니다. 

구글은 어떻게 보안을 할까요? "How Google Does It" 시리즈의 일환으로, 구글의 전문가들이 직접 오늘날 가장 시급한 보안 주제, 과제, 그리고 우려 사항에 대해 구글이 어떻게 접근하는지에 대한 인사이트, 관찰, 그리고 최고의 팁을 공유합니다. 이번 편에서는 구글의 탐지 및 대응 AI 및 Sec-Gemini 제품 개발 및 전략 리드인 도미니크 스비라트(Dominik Swierad)가 사이버 보안을 위해 AI 에이전트를 사용하고 통합하는 구글의 접근 방식에 대한 인사이트를 공유합니다.

에이전틱 AI(Agentic AI)는 이미 보안 운영을 변화시키기 시작했습니다. AI 에이전트는 고급 AI 모델의 지능과 도구 접근성을 결합하여, 방어자를 대신해 독립적으로 목표를 식별하고, 추론하며, 조치를 취할 수 있습니다. 이러한 기능은 에이전트가 보안팀과 함께 일하며 인간 분석가들이 진정으로 전문성이 요구되는 과제에 더 집중할 수 있도록 시간을 벌어주는 근본적인 변화를 의미합니다.

에이전틱 AI를 통해 저희의 임무는 Alphabet과 고객의 보안 태세를 발전시키고, 저희 방어자들이 더 많은 것을 할 수 있도록 지원하는 것입니다. 이는 소프트웨어에서 알려지지 않은 보안 취약점을 발견하는 것부터 방대한 양의 데이터를 샅샅이 뒤지고 초기 포렌식 조사를 수행하는 것까지 포함합니다. 저희는 또한 에이전틱 SOC(agentic SOC)를 위한 도구를 개발하고 있으며, 경보 분류 및 악성코드 분석과 같은 일상적인 보안 작업을 변화시키기 위해 에이전트를 도입하고 있습니다.

구글에서는 AI 에이전트에 대해 논의하는 단계를 넘어, 대담하고 책임감 있게 AI 에이전트를 구축하는 데 전념하는 집중적인 접근 방식으로 보안에 적극적으로 사용하고 있습니다. 저희가 이 방식을 확립하는 데 도움이 된 네 가지 중요한 교훈은 다음과 같습니다.

1. 직접 해보는 학습이 신뢰를 구축한다

구글에서 10년 넘게 보안 워크플로우를 자동화해 온 역사가 있음에도 불구하고, 보안 에이전트를 도입할 때 약간의 주저함에 직면했습니다. 저희 보안 엔지니어들은 시스템을 훌륭한 "실행자(doers)"로는 익숙했지만 "계획자(planners)"로는 아니었기 때문에, 가장 큰 장벽 중 하나는 기술이 자율적으로 효과적인 계획을 세우고 실행할 수 있다는 확신을 심어주는 것이었습니다.

저희 보안팀으로부터 얻은 한 가지 핵심적인 통찰력이 이 장애물을 극복하는 데 도움이 되었습니다. 바로 사람들이 기술을 신뢰하기 위해서는 그것을 이해해야 한다는 것입니다. 저희는 신뢰 구축이 AI 에이전트의 기반 기술인 생성형 AI에서부터 시작된다는 것을 깨달았습니다.

생성형 AI에 대한 신뢰를 쌓는 것은 까다로울 수 있어, 저희는 기존 보안 도구에 생성형 AI 기반 채팅 인터페이스를 통합했습니다. 이 챗봇을 통해 보안 엔지니어들은 질문을 하고 보안 데이터와 상호작용할 수 있었습니다. 이 인터페이스 덕분에 다른 도구로 전환하거나, 데이터를 복사하거나, 내부 정책 요구사항을 찾아다닐 필요 없이, 익숙한 환경에서 생성형 AI가 어떻게 작동하는지 쉽게 실험하고 배울 수 있었습니다.

가능한 한 많은 것을 만들고 싶은 유혹이 크지만, 저희는 단지 AI를 위한 AI를 만드는 것이 아니라, 실제 문제를 해결하는 데 전략의 기반을 두고자 합니다.

그 결과, 보안 엔지니어들은 생성형 AI의 실용적인 가치를 직접 경험할 수 있었고, 이는 그 잠재력과 저희가 구축 중인 AI 에이전트에 대한 더 깊은 관심으로 이어졌습니다. 챗봇은 매달 꾸준히 사용되었으며, 이는 사람들이 막히거나, 질문이 있거나, 탐색하고 싶을 때 사용 가능한 자원으로서 이러한 기능에 대한 신뢰가 커지고 있음을 나타냅니다.

2. 단지 가능성이 아닌, 실제 문제를 우선시하라

AI 에이전트로 추구할 올바른 보안 사용 사례를 선택하는 것은 특히 구글 규모에서는 매우 중요합니다. 가능한 한 많은 것을 만들고 싶은 유혹이 크지만, 저희는 단지 AI를 위한 AI를 만드는 것이 아니라, 실제 문제를 해결하는 데 전략의 기반을 두고자 합니다.

초기 사용 사례는 더 복잡한 문제를 다루기 전에 보안 에이전트에 대한 신뢰를 구축하고 그 효과를 검증하는 데 중점을 두었습니다. 이 접근 방식은 에이전트가 어디에서 가장 도움이 되는지 명확히 하고, 불필요한 위험을 만들지 않으면서 그 한계를 파악할 수 있게 해주었습니다. 저희의 초기 성공 사례 중 일부는 다음과 같은 에이전트 사용을 포함합니다.

  • 요약(Distillation): 방대한 양의 보안 데이터를 가져와 이해의 격차를 메우는 통찰력을 제공합니다. 예를 들어, 복잡한 보안 티켓을 요약하여 의사 결정을 위한 '누가, 무엇을, 언제, 어디서, 왜, 어떻게'를 신속하게 제공합니다.
  • 번역(Translation): 텍스트-코드 및 코드-텍스트 변환 기능을 사용하여 악성 코드의 악성 정도와 파일의 민감도를 분석하고 이해합니다.

첫 사용 사례를 결정하기 위해, 저희는 핵심 운영의 병목 현상을 해결하는 데 AI 에이전트가 어디에서 도움이 될 수 있는지를 파악했습니다.

예를 들어, 탐지 범위를 늘리는 것은 저희 보안 운영팀이 증가한 경보량을 처리하고 새로운 탐지 규칙을 유지할 수 있을 때만 효과적입니다. 그래서 저희는 보안 에이전트가 팀의 규모를 확장하고, 경보의 우선순위를 정하고, 조사하며, 더 효과적으로 대응할 수 있도록 하는 방법을 검토했습니다.

또 다른 중요한 측면은 효과적인 AI 훈련과 결과를 보장하기에 충분한 고품질 데이터가 있는지 여부였습니다. AI는 마법 같지만, 마법은 아닙니다. AI 모델이 무엇을 해야 하는지에 대한 좋은 예가 없다면, 그것은 올바른 출발점이 아닙니다.

저희는 또한 목표 달성에 필요한 올바른 데이터셋을 선별할 수 있는 사용 사례를 우선시했습니다.

3. 성공적인 확장을 위해 측정, 평가, 반복하라

보안 에이전트의 성능을 측정하는 것은 전반적인 가치를 입증하고, 효율성을 평가하며, 확장에 필요한 조정을 이끌어내는 데 매우 중요합니다. 단순히 규칙을 업데이트하는 기존 자동화 시스템과 달리, AI 에이전트는 개선 영역을 신속하게 식별하고 빠르게 반복하여 시기적절한 업데이트를 제공해야 합니다.

저희는 핵심 성과 지표(KPI)를 두 가지 더 넓은 목표에 집중합니다.

  1. 위험 감소 촉진: 이 지표들은 AI 에이전트가 위험을 얼마나 잘 줄이고 보안 태세를 개선하는지를 평가합니다. 저희는 AI 기능이 이전에 해결할 수 없었던 격차를 메우는 데 얼마나 도움이 되는지 평가하고, 이전에 놓쳤던 새로운 위협과 취약점을 발견하고 있는지 확인하고자 합니다.
  2. 반복 작업 제거: 저희는 보안 엔지니어들이 새로운 위협과 방어에 집중하기를 바랍니다. 문제에 대한 해결책이 일단 발견되면, 아무도 다시 수동으로 그 방법을 알아내야 해서는 안 됩니다. 이 지표들은 보안 에이전트가 반복적인 작업을 얼마나 잘 최소화하는지, 그리고 팀이 전문성을 확장하는 데 얼마나 잘 기여하는지를 평가하는 데 도움이 됩니다.

저희가 측정하는 또 다른 중요한 지표는 보안 분석가와 엔지니어들이 이 도구들에 부여하는 신뢰 수준이며, 이는 저희가 받는 아이디어의 수에 기반합니다. 그들이 기술을 이해하고 신뢰하기 시작하면, 보통 새로운 요청과 개념이 쇄도하는 것을 봅니다.

저희는 또한 직접적인 사용자 피드백을 수집하고 무엇이 효과가 있었고 없었는지를 분석하는 프로세스를 개발하는 데 시간을 할애했습니다.

보안을 위해 AI 에이전트를 구현할 때, 기초적인 관행들이 여러분의 이니셔티브의 장기적인 성공을 좌우할 수 있습니다.

예를 들어, 저희는 보안 엔지니어들과 협력하여 멀티모달 Gemini 모델을 적용하여 처리된 티켓을 요약하고, 에이전트가 예상과 다르게 보안 티켓을 처리한 부분을 강조 표시하고 있습니다. 이러한 통찰력은 데이터셋을 업데이트하고 훈련에 다시 통합하는 데 사용되어, 개선을 이끌어내는 지속적인 순환 고리를 만듭니다.

4. 기초를 바로 세워라

보안을 위해 AI 에이전트를 구현할 때, 기초적인 관행들이 여러분의 이니셔티브의 장기적인 성공을 좌우할 수 있습니다.

저희는 데이터를 수집, 선별, 저장하는 방식과 모델을 평가하고 검증하기 위한 엄격한 프로세스를 매우 체계적으로 관리합니다. 이러한 엄격함은 특히 사이버 보안 분야에서 플레이북과 티켓의 민감한 특성을 고려할 때 어려울 수 있습니다.

저희는 이 데이터에 접근하고 처리하는 방법에 대한 명확한 정책이 있는지 확인해야 했습니다. 하지만, 이 작업을 먼저 수행함으로써 처음부터 다시 시작할 필요 없이 새로운 모델을 저희의 사용 사례에 맞춰 평가하고, 무엇을 사용할지에 대해 더 정보에 입각한 결정을 내릴 수 있습니다.

거버넌스 측면에서, 저희는 각 에이전트에 페르소나("당신은 누구인가?")와 정체성("우리는 당신에게 무엇을 기대하는가?")을 할당합니다. 에이전트를 예를 들어 악성코드 조사 에이전트, 보안 에이전트, 또는 개인정보 보호 에이전트로 정의한 후, 에이전트가 할 수 있는 일의 정의된 범위를 가진 특정 책임 영역을 할당할 수 있습니다.

여러 역할을 수행하는 보안 엔지니어와 달리, AI 에이전트는 제한된 맥락과 지식의 창 안에서 작동하도록 설계되었습니다. 이러한 구분을 사용하면 에이전트가 허용되거나 허용되지 않는 조치를 개괄하기가 더 쉬워져, 통제력을 유지하고 위험을 더 효과적으로 관리할 수 있습니다.

저희는 또한 추가적인 보증 계층을 사용하는 방법을 모색하고 있습니다. 예를 들어, 다른 AI 에이전트의 작업을 내부 보안 정책 및 모범 사례에 따라 독립적으로 검증할 수 있는 "품질" 에이전트를 평가하고 있습니다.

품질 에이전트는 특히 한 에이전트의 출력이 다른 에이전트의 입력이 될 수 있는 다중 에이전트 시스템에서 추가적인 감독을 제공합니다. 이러한 2차 에이전트는 1차 보안 에이전트가 저희 표준에 부합하는지 확인하는 동시에, 오류가 시스템 전체에 전파되는 것을 방지합니다.

생성형 AI가 AI 기술을 더 쉽게 접근할 수 있게 만들고 있지만, 기초—즉, 고품질 데이터, 명확한 목표, 포괄적인 거버넌스—는 변하지 않았습니다. 기초를 건너뛰면 초기에는 몇 가지 성공을 거둘 수 있지만, 핵심적인 기초 없이는 그 추진력을 유지하기가 훨씬 더 어려워집니다.

이 기사에는 Cloud Security Podcast 에피소드, “Google Lessons for Using AI Agents for Securing Our Enterprise”의 인사이트가 포함되어 있습니다.

게시 위치