콘텐츠로 이동하기
보안 & 아이덴티티

AI 보안, 무엇부터 해야 할까? 우선순위 결정 장애 해결하기

2025년 12월 11일
https://storage.googleapis.com/gweb-cloudblog-publish/images/GettyImages-1802593567.max-2600x2600.jpg
Heather Nevill

Head of North America GCP Security & Compliance Architects

Widya Junus

Programs and Strategy Operations, Office of the CISO

Get original CISO insights in your inbox

The latest on security from Google Cloud's Office of the CISO, twice a month.

Subscribe

해당 블로그의 원문은 2025년 12월 11일 Google Cloud 블로그(영문)에 게재되었습니다. 

오늘날 보안을 이끌고 있다면, 여러분은 단순히 리스크와 싸우는 것이 아닙니다. 규정을 준수하면서 AI 혁신을 가속화해야 한다는 엄청난 압박 속에서 균형을 잡고 있는 것입니다. 이렇게 상충하는 요구사항들을 동시에 해결하려다 보면, 이론적인 리스크와 일상적인 운영의 현실을 가르는 정보 격차로 인해 '우선순위 마비(prioritization paralysis)' 상태에 빠질 수 있습니다.

Google Cloud CISO실에서 최전선의 고객들로부터 가장 많이 듣는 과제 중 하나가 바로 이 'AI 우선순위 마비'입니다. 고객들은 AI 도입에서 엄청난 기회를 보는 동시에, 상당한 우려도 하고 있다고 말합니다.

비즈니스 및 보안 리더들이 해결해야 할 두 가지 시급한 리스크는 다음과 같습니다.

  1. 섀도우 에이전트 및 섀도우 AI를 통한 통제되지 않는 데이터 유출
  2. 자율 AI 에이전트와 같은 인간이 아닌 ID(non-human identities)의 관리

최근 논의에서, 규제가 심한 분야의 보안 리더들은 데이터 개인정보보호 문제로 인해 "추진 동력을 잃었다"고 말했으며, 다른 리더들은 거버넌스 모델의 속도를 능가하는 자율 에이전트의 "쓰나미 효과"를 만들어내는 "수문이 열린" 시나리오를 묘사했습니다.

아무 조치도 취하지 않을 경우, 그 결과는 핵심 비즈니스 가치를 위협하고 수익 보호에 어려움을 초래할 수 있습니다. 통제되지 않는 섀도우 AI는 외부 모델이 독점 데이터를 흡수하여 지적 재산을 노출시키고, 규제 미준수 및 계약 위반의 위험을 증가시킬 수 있습니다.

한편, 인간과 AI 에이전트의 행동을 구분하지 못하면, ID 및 접근 제어가 자율 행위자를 안전하게 보호하지 못할 경우 고객 신뢰를 무너뜨리고 비용이 많이 드는 오류로 이어질 수 있습니다.

데이터 유출 방지 및 ID 관리라는 두 가지 중요한 영역에서 엄격한 통제를 시행하기 위해서는, 기본적인 보안 수칙 준수가 필수적인 기준선을 제공합니다.

우리의 최상위 철학은 이것입니다: 차단하지 말고, 안전하게 보호하라. 금지하는 접근 방식은 지속 불가능하며, 섀도우 AI를 더욱 음지로 몰아넣고 규정 준수의 사각지대를 만들 수 있습니다. 대신, 우리는 섀도우 AI를 스마트하고 안전한 엔터프라이즈 AI로 전환하는 것을 목표로 해야 합니다.

SAIF를 활용하여 안전한 AI 선순환 구조 만들기

조직이 담대하고 안전하게 AI 도입을 추진할 수 있도록 돕기 위한 노력의 일환으로, Google은 SAIF (Secure AI Framework)를 도입했습니다. 이 프레임워크는 데이터 기밀성에서부터 모델의 출력 및 행동 제어에 이르기까지 AI 리스크를 관리하기 위한 구조화된 방법론을 제공합니다.

SAIF는 AI 리스크 관리를 위한 구조화된 방법론을 제공하여, 조직이 필수적인 피드백 루프를 구축하고 거버넌스 및 보안 통제를 반복적으로 개선하여 AI 도입에 대한 더 큰 신뢰를 쌓을 수 있도록 지원합니다.

애플리케이션을 배포하기 전에 클라우드 인프라를 보호해야 하는 것처럼, SAIF는 클라우드 보안의 기본 원칙을 AI로 확장할 것을 권장합니다. 기본적인 보안 수칙 준수는 데이터 유출 방지 및 ID 관리라는 두 가지 중요한 영역에서 엄격한 통제를 시행하는 데 필요한 기준선을 제공합니다.

섀도우 AI의 대안: 데이터 유출 방지

고객들은 AI 모델이 금융 기록에서부터 독점적인 비즈니스 정보에 이르기까지 민감한 데이터를 처리하는 것에 대해 깊이 우려하고 있습니다.

해결책: 안전하고 기업 거버넌스가 적용된 대안을 채택하세요. 안전한 대안을 제공하지 않고 섀도우 AI를 차단하면, 직원들이 금지 조치를 우회하게 만들 수 있습니다. 대신, 규정 준수 및 안전장치가 내장된, 승인된 엔터프라이즈급 AI 도구를 제공해야 합니다.

실행 방안:

  • 실시간 데이터 및 프롬프트 보호 구현: 위험은 모델이 데이터를 활발하게 처리하는 동안 독점 데이터가 취약해진다는 것입니다. Model Armor와 같은 도구를 사용하여 프롬프트와 관계없이 실시간으로 안전장치를 강제하여 민감한 데이터 유출 및 프롬프트 주입 공격을 차단할 수 있습니다. 중요한 AI 워크로드를 Confidential Computing 가상 머신과 같은 신뢰 실행 환경(TEE)에 배포하여 데이터가 사용 중일 때도 보호하세요.
  • 데이터 수명 주기 및 경계 보안: 전송 중인 데이터를 위해 TLS를 사용하여 기본적으로 데이터가 암호화되도록 하세요. 고객 관리 암호화 키(CMEK)는 규제가 적용되는 워크로드를 보호하고 완전한 키 제어 권한을 유지하는 데 도움이 될 수 있습니다.

AI 공급망 및 IAM 보안

"누가 무엇을 할 수 있는가"라는 고전적인 ID 및 접근 관리(IAM) 과제는 이제 인간과 자율 AI 에이전트를 구분해야 하므로 더욱 복잡해졌습니다. ID가 새로운 경계입니다.

해결책: 전체 AI 수명 주기로 확장되는 제로 트러스트(Zero Trust) 모델을 채택하세요.

실행 방안:

  • 강력한 ID 및 최소 권한 원칙 시행: 가능한 모든 곳에서 피싱 방지 키(U2F/FIDO2)를 포함하여 모든 인간의 접근에 다단계 인증(MFA)을 의무화하세요. AI 에이전트를 위한 별도의 ID를 설정하고, 맞춤형 역할과 최소 권한 원칙을 사용하여 세분화된 IAM 정책을 적용하여 사람과 에이전트 모두 필요한 접근 권한만 갖도록 보장하세요.
  • 소스 및 공급망 보안: 배포 전에 모든 AI 모델과 아티팩트의 무결성을 검증하세요. SLSA와 같은 핵심 프레임워크를 적용하여 모델의 출처에 서명하고, 모델을 훈련 원점과 암호화 방식으로 연결함으로써 제로 트러스트 모델을 확장하세요. 마지막으로, 특히 공급업체가 관리하는 서비스 주변의 보안 보증 격차를 해결하기 위해 리스크 평가, 거버넌스, 운영 모니터링 프레임워크를 채택하세요.

AI 보안 운영화: 플랫폼 우선 전략

고객들과의 현장 대화에서 얻은 핵심 통찰력은, AI의 미래를 안전하게 지키기 위해서는 핵심 클라우드 플랫폼과 기반을 보호하겠다는 약속이 필요하다는 것입니다. 계획에서 실행으로 옮기기 위해, 저희는 배포 전에 모든 모델의 무결성을 확인하고, 강력한 ID 통제를 시행하며, Confidential Computing을 사용하여 사용 중인 데이터까지 보호할 것을 권장합니다.

이러한 통합된 접근 방식이야말로 '우선순위 마비' 상태를 벗어나 안전한 기업 성장을 가속화하는 방법입니다. AI 보안에 대해 더 알아보려면, 저희 CISO 인사이트 허브를 확인해 주세요.

게시 위치