Cloud CISO Perspectives: SAIF 기반 구축을 위한 실전 가이드

Tom Curry
Senior Security Consultant, Office of the CISO
Anton Chuvakin
Security Advisor, Office of the CISO
Get original CISO insights in your inbox
The latest on security from Google Cloud's Office of the CISO, twice a month.
Subscribe해당 블로그의 원문은 2026년 1월 17일 Google Cloud 블로그(영문)에 게재되었습니다.
2026년 1월의 첫 번째 'Cloud CISO Perspectives'에 오신 것을 환영합니다. 오늘, Google Cloud의 CISO실(Office of the CISO) 소속인 Tom Curry와 Anton Chuvakin이 Google의 Secure AI Framework(SAIF)를 Google Cloud의 기능 및 서비스와 함께 활용하여, 대담하면서도 책임감 있게 AI를 구축하는 방법에 대한 새로운 보고서를 공유합니다.
모든 'Cloud CISO Perspectives'와 마찬가지로, 이 뉴스레터의 내용은 Google Cloud 블로그에도 게시됩니다. 만약 이 글을 웹사이트에서 읽고 계시며 이메일 버전을 구독하고 싶으시다면, 여기에서 구독하실 수 있습니다.
SAIF 기반 구축을 위한 실전 가이드
Tom Curry, 선임 보안 컨설턴트, and Anton Chuvakin, 보안 자문, CISO실


오늘날의 조직에게 AI를 안전하고 보안에 맞게 사용하여 대담하면서도 책임감 있는 비즈니스 목표를 달성하도록 보장하는 것은 매우 중요한 문제입니다.
Google에서는 AI 제공업체를 평가할 때 경영진이 가장 우려하는 사항이 보안과 데이터 프라이버시라는 것을 알고 있습니다. 또한 저희의 최근 보안 분야 AI의 투자 수익률(ROI)에 대한 보고서에 따르면, 조사된 대부분의 산업에서 AI 에이전트의 최고 사용 사례는 보안이었습니다. 보안 및 비즈니스 리더들이 AI를 보호하고 AI 위험을 완화할 수 있도록 돕기 위해, 저희는 2023년에 Secure AI Framework(SAIF)를 개발했습니다. AI가 발전함에 따라 SAIF도 발전했으며, 이제 저희는 특정 기술에 구애받지 않는 SAIF 제어 기능을 Google Cloud에 구현하는 방법에 대한 실질적인 가이드를 제공합니다.
Google의 Secure AI Framework(SAIF)는 AI 시스템의 전체 수명 주기에 걸쳐 보안을 확보하기 위한 프레임워크입니다. SAIF는 최전선에 있는 보안 전문가, 개발자, 데이터 과학자들이 AI 모델과 애플리케이션이 설계 단계부터 안전하도록 보장하기 위해 설계되었지만, 보안 및 비즈니스 리더, 특히 CISO는 조직이 SAIF를 보안 내재화(secure-by-design) 전략의 일부로 통합하도록 돕는 데 중요한 역할을 합니다.


SAIF 위험 지도(SAIF Risk Map)는 데이터, 인프라, 모델, 애플리케이션이라는 네 가지 구성요소를 기반으로 한 AI의 개념적 시스템 아키텍처를 상세히 설명합니다. 또한 SAIF는 15가지 일반적인 AI 위험을 식별하고, 이러한 위험이 발생하는 위치를 강조하며, 각 위험을 AI 제어 기능에 매핑합니다. 여기에는 에이전트 AI(agentic AI) 위험 및 제어에 대한 지침도 포함됩니다.
저희는 AI 보안이 업계 전반의 공동 노력이 되어야 한다고 굳게 믿으며, 이러한 약속의 일환으로 SAIF 구성요소를 보안 AI 연합(Coalition for Secure AI, CoSAI)에 기여했습니다. Google Cloud에서 SAIF 제어 기능을 구현하는 방법에 대한 저희의 최신 백서에서 설명했듯이, AI 개발에 SAIF를 성공적으로 적용하는 데 도움이 되는 세 가지 주요 접근 방식이 있습니다. 바로 데이터를 새로운 경계(Perimeter)로 취급하고, 프롬프트를 코드로 취급하며, 안전한 에이전트 AI는 ID 전파(Identity Propagation)가 필요하다는 것입니다.
모델은 학습에 사용된 데이터만큼만 안전합니다. 따라서 조직들은 모델 자체를 보호하는 것에서 데이터 공급망을 '정화(sanitizing)'하는 것으로 초점을 전환할 것을 권장합니다.
- 데이터는 새로운 경계(Perimeter)입니다.
모델은 학습에 사용된 데이터만큼만 안전합니다. 따라서 조직들은 모델 자체를 보호하는 것에서 데이터 공급망을 '정화(sanitizing)'하는 것으로 초점을 전환할 것을 권장합니다. 바로 이 지점에서 자동화된 탐지 및 차등 개인정보 보호(differential privacy) 기술을 사용하여 개인 식별 정보(PII)가 모델의 메모리의 일부가 되지 않도록 보장할 수 있습니다.
SAIF의 데이터 제어 기능은 데이터 소싱, 관리, 그리고 모델 학습 및 사용자 상호작용에 사용되는 데이터의 위험을 해결하여, AI 수명주기 전반에 걸쳐 개인정보 보호, 무결성, 승인된 사용을 보장합니다. Google Cloud의 주요 데이터 보안 도구는 다음과 같습니다: Identity and Access Management, Cloud Storage 및 BigQuery에 대한 액세스 제어, 데이터 거버넌스를 위한 Dataplex, 그리고 Vertex AI 관리형 데이터 세트.
- 프롬프트를 코드처럼 다루십시오.
데이터와 인프라가 안전하게 보호되었다면, 이제 모델 자체를 보호해야 합니다. 모델은 악의적인 입력(프롬프트)을 통해 직접 공격받을 수 있으며, 그 출력은 해를 끼치도록 조작될 수 있습니다. 위협 행위자 입장에서의 용이성을 고려할 때, '프롬프트 인젝션(prompt injection)'은 새로운 'SQL 인젝션(SQL injection)'과 같습니다.
SAIF의 모델 제어 기능은 모델에 복원력을 구축하고 그 입출력을 정화하여 이러한 새로운 위협으로부터 보호하도록 설계되었습니다. 저희는 전용 AI 방화벽(Model Armor 등)을 배포하여, 모든 입력에 대해 악의적인 의도가 있는지, 그리고 모든 출력이 사용자에게 도달하기 전에 민감한 데이터 유출이 있는지 검사할 것을 권장합니다. Google Cloud의 추가적인 주요 도구는 다음과 같습니다: Gemini를 가드 모델(guard model)로 사용하기, 그리고 Apigee를 정교한 API 게이트웨이로 사용하기.
- 에이전트 AI(Agentic AI)는 ID 전파(Identity Propagation)가 필요합니다
챗봇에서 자율 또는 반자율 에이전트로 전환되면 보안 침해 시 피해 범위(blast radius)가 증가합니다. 승인되지 않은 작업(rogue actions) 및 민감한 데이터 공개의 위험을 완화하기 위해, 저희는 광범위한 액세스 권한을 가진 서비스 계정의 사용을 강력히 반대합니다. AI 에이전트가 사용자를 대신하여 수행하는 모든 작업은 적절히 제어되고 권한이 부여되어야 하며, 에이전트는 자신이 접촉하는 모든 백엔드 도구에 실제 사용자의 ID와 권한을 전파하도록 지시받아야 합니다.
SAIF는 최종 사용자와 AI 모델 간의 인터페이스를 보호하기 위한 애플리케이션 제어를 권장합니다. Google의 에이전트 개발 키트(ADK) 안전 및 보안 가이드라인에 설명된 바와 같이, AI 에이전트 개발자는 백엔드 도구와의 상호작용이 에이전트 자체의 ID로 승인되어야 하는지, 아니면 제어하는 사용자의 ID로 승인되어야 하는지 신중하게 고려해야 합니다. 새로운 SAIF 보고서에서 설명했듯이, 에이전트에 대한 사용자 인증을 구현하려면 여러 단계가 필요합니다. 프론트엔드 인증, ID 전파, 모델 컨텍스트 프로토콜(MCP) 및 에이전트 간(A2A) 프로토콜에 대한 인증, 그리고 Google Cloud 서비스를 위한 IAM이 그것입니다.
대담하면서도 책임감 있게: SAIF로 구축하기
Secure AI Framework는 인공지능의 복잡한 보안 환경을 탐색하기 위한 로드맵을 제공합니다. 위에서 설명한 세 가지 주요 접근 방식은 SAIF에 매우 중요하지만, 프레임워크에는 더 많은 내용이 있습니다. 거버넌스 제어, 보증 제어(레드팀 및 취약점 관리 포함), 그리고 애플리케이션 제어는 SAIF의 핵심 구성 요소이며, Google Cloud의 글로벌 규모 보안 원칙 및 역량과 저희가 보조를 맞추는 핵심적인 부분입니다.
귀사에서 SAIF를 운영에 적용하는 방법에 대한 더 자세한 정보는 여기에서 전체 보고서를 읽어보실 수 있습니다.
Google Cloud Security 최신 소식
이번 달 보안팀의 최신 업데이트, 제품, 서비스 및 정는 다음과 같습니다:
- Google의 방식: 클라우드 포렌식 수집 및 분석: Google의 사고 관리 및 디지털 포렌식 팀이 디지털 증거를 수집하고 분석하는 방법을 소개합니다. 자세히 보기.
- Auto-ISAC, Google과 자동차 분야 사이버 보안 강화를 위한 파트너십 체결: Google Cloud는 자동차 및 운송 분야에 대한 약속을 더욱 심화하기 위해 Auto-ISAC의 혁신 파트너로 자랑스럽게 합류합니다. 자세히 보기.
- Web3 보안을 확보할 때, Web2의 기본을 기억하십시오: Web3가 성숙해짐에 따라 위험은 계속해서 증가하고 있습니다. Web3가 번성하기 위해서는 운영 인프라를 보호하기 위해 블록체인을 넘어 보안이 확장되어야 합니다. 방법은 다음과 같습니다. 자세히 보기.
- Mandiant가 사이버 복원력 테스트 및 강화를 돕는 방법: 팀이 실제 사고에 더 잘 대비할 수 있도록, 우리는 실제 직원 활동의 모든 디지털 노이즈를 갖춘 사이버 증명장인 ThreatSpace를 개발했습니다. 자세히 보기.
이번 달에 발표된 더 많은 보안 이야기는 Google Cloud 블로그에서 확인하십시오. 자세히 보기
위협 인텔리전스 소식
- Salesforce Aura의 데이터 노출 감사: 맨디언트는 Salesforce Aura 프레임워크의 접근 제어 잘못된 구성을 식별하고 감사하는 데 도움이 되도록 설계된 새로운 오픈 소스 도구인 AuraInspector를 출시했습니다. 자세히 보기.
- 위협 행위자들이 React2Shell을 악용하는 방법: CVE-2025-55182가 공개된 직후, Google 위협 인텔리전스 그룹(GTIG)은 기회주의적인 사이버 범죄 행위자부터 의심되는 스파이 그룹에 이르기까지 많은 위협 클러스터에서 광범위한 악용을 관찰하기 시작했습니다. GTIG가 지금까지 관찰한 내용은 다음과 같습니다. 자세히 보기.
- Intellexa의 다작 제로데이 익스플로잇 계속: 광범위한 조사와 공개 보도에도 불구하고, Intellexa와 같은 상업용 감시 공급업체는 방해받지 않고 계속 운영되고 있습니다. "Predator" 스파이웨어로 알려진 새로운 GTIG 분석에 따르면 Intellexa는 제한을 회피하고 번성하고 있습니다. 자세히 보기.
이번 달에 발표된 더 많은 위협 인텔리전스 이야기는 Google Cloud 블로그에서 확인하십시오. 자세히 보기.
Google Cloud 팟캐스트
- 보안 전략에 요새가 아닌 면역 체계가 필요한 이유: Google의 엔지니어링 부사장인 Royal Hansen이 호스트 Anton Chuvakin, Tim Peacock과 함께 사이버 보안이 엔지니어링 사고방식에서 생물학적 모델로 전환해야 하는 이유와 CISO가 그 여정을 시작할 수 있는 방법에 대해 이야기합니다. 여기서 듣기.
- OT가 클라우드를 만났을 때 실제로 무엇이 고장나는가: Mandiant의 OT 컨설팅 기술 리더인 Chris Sistrunk가 Anton, Tim과 함께 산업 및 운영 기술을 클라우드에 연결할 때 발생하는 실제 보안 위험에 대해 논의합니다. 여기서 듣기.
- 바이너리 비하인드: Windows 내부: 호스트 Josh Stroschein이 자신을 보안을 싫어하는 개발자라고 소개하는 최고의 Windows 전문가 Pavel Yosifovich와 함께합니다. 여기서 듣기.
Cloud CISO Perspectives 게시물을 한 달에 두 번 받은 편지함으로 받으려면 뉴스레터에 가입하십시오. 몇 주 후에 Google Cloud의 더 많은 보안 관련 업데이트로 다시 찾아뵙겠습니다.

