안전하고 책임감 있게 AI 사용

Last reviewed 2025-02-05 UTC

Google Cloud Well-Architected Framework의 보안 요소 원칙은 AI 시스템을 보호하는 데 도움이 되는 권장사항을 제공합니다. 이러한 권장사항은 AI 시스템의 보안 및 위험 문제를 해결하기 위한 실용적인 접근 방식을 제공하는 Google의 안전한 AI 프레임워크 (SAIF)에 따라 작성되었습니다. SAIF는 AI를 책임감 있게 빌드하고 배포하기 위한 업계 전반의 표준을 제공하는 것을 목표로 하는 개념적 프레임워크입니다.

원칙 개요

AI 시스템이 보안, 개인 정보 보호, 규정 준수 요구사항을 충족하도록 하려면 초기 설계부터 배포 및 운영에 이르기까지 전체적인 전략을 채택해야 합니다. SAIF의 6가지 핵심 요소를 적용하여 이 전체론적 전략을 구현할 수 있습니다.

Google은 AI를 사용하여 위협 식별, 보안 작업 자동화, 감지 기능 개선과 같은 보안 조치를 강화하는 동시에 중요한 결정을 내릴 때는 사람의 개입을 유지합니다.

Google은 AI 보안을 강화하기 위한 협업적 접근 방식을 강조합니다. 이 접근 방식은 고객, 업계, 정부와 협력하여 SAIF 가이드라인을 개선하고 실용적이고 실행 가능한 리소스를 제공하는 것을 목표로 합니다.

이 원칙을 구현하기 위한 권장사항은 다음 섹션으로 그룹화되어 있습니다.

AI를 안전하게 사용하는 권장사항

AI를 안전하게 사용하려면 기본 보안 제어와 AI 관련 보안 제어 모두 필요합니다. 이 섹션에서는 AI 및 ML 배포가 조직의 보안, 개인 정보 보호, 규정 준수 요구사항을 충족하도록 하는 권장사항을 간략히 설명합니다. Google Cloud에서 AI 및 ML 워크로드와 관련된 아키텍처 원칙 및 권장사항에 대한 개요는 설계 품질 프레임워크의 AI 및 ML 관점을 참고하세요.

AI 사용을 위한 명확한 목표 및 요구사항 정의

이 권장사항은 다음 중점사항과 관련이 있습니다.

  • 클라우드 거버넌스, 위험, 규정 준수
  • AI 및 ML 보안

이 권장사항은 주변 비즈니스 프로세스에서 AI 시스템 위험을 맥락에 맞게 이해하는 것에 관한 SAIF 요소와 일맥상통합니다. AI 시스템을 설계하고 발전시킬 때는 구체적인 비즈니스 목표, 위험, 규정 준수 요구사항을 이해하는 것이 중요합니다.

데이터를 안전하게 보호하고 손실 또는 오조작을 방지합니다.

이 권장사항은 다음 중점사항과 관련이 있습니다.

  • 인프라 보안
  • ID 및 액세스 관리
  • 데이터 보안
  • 애플리케이션 보안
  • AI 및 ML 보안

이 권장사항은 다음 SAIF 요소와 일치합니다.

  • AI 생태계로 강력한 보안 기반 확장 이 요소에는 데이터 수집, 저장소, 액세스 제어, 데이터 오염 방지가 포함됩니다.
  • AI 시스템 위험을 맥락에 맞게 이해합니다. 비즈니스 목표와 규정 준수를 지원하는 데이터 보안을 강조합니다.

조작으로부터 AI 파이프라인을 안전하고 강력하게 보호

이 권장사항은 다음 중점사항과 관련이 있습니다.

  • 인프라 보안
  • ID 및 액세스 관리
  • 데이터 보안
  • 애플리케이션 보안
  • AI 및 ML 보안

이 권장사항은 다음 SAIF 요소와 일치합니다.

  • AI 생태계로 강력한 보안 기반 확장 안전한 AI 시스템을 구축하는 데 중요한 요소인 코드 및 모델 아티팩트를 보호하세요.
  • 더 빠른 피드백 루프를 위해 제어를 조정합니다. 완화 및 이슈 대응에 중요하므로 애셋과 파이프라인 실행을 추적합니다.

보안 도구 및 아티팩트를 사용하여 보안 시스템에 앱 배포

이 권장사항은 다음 중점사항과 관련이 있습니다.

  • 인프라 보안
  • ID 및 액세스 관리
  • 데이터 보안
  • 애플리케이션 보안
  • AI 및 ML 보안

AI 기반 애플리케이션에서 안전한 시스템과 검증된 도구 및 아티팩트를 사용하면 AI 생태계와 공급망으로 강력한 보안 기반을 확장하는 것에 관한 SAIF 요소에 부합합니다. 이 권장사항은 다음 단계를 통해 해결할 수 있습니다.

입력 보호 및 모니터링

이 권장사항은 다음 중점사항과 관련이 있습니다.

  • 로깅, 감사, 모니터링
  • 보안 운영
  • AI 및 ML 보안

이 권장사항은 조직의 위협 대응 체계에 AI를 도입하기 위해 탐지 및 대응 범위를 확장하는 것에 관한 SAIF 요소와 일맥상통합니다. 문제를 방지하려면 생성형 AI 시스템의 프롬프트를 관리하고 입력을 모니터링하며 사용자 액세스를 제어하는 것이 중요합니다.

AI 거버넌스 권장사항

이 섹션의 모든 권장사항은 클라우드 거버넌스, 위험, 규정 준수와 같은 중점 영역과 관련이 있습니다.

Google Cloud 는 책임감 있고 윤리적인 AI 시스템을 빌드하는 데 사용할 수 있는 강력한 도구와 서비스를 제공합니다. 또한 AI 시스템의 개발, 배포, 사용을 안내할 수 있는 정책, 절차, 윤리적 고려사항의 프레임워크도 제공합니다.

권장사항에 반영된 바와 같이 Google의 AI 거버넌스 접근 방식은 다음 원칙에 따라 진행됩니다.

  • 공정성
  • 투명성
  • 책무성
  • 개인 정보 보호
  • 보안

공정성 지표 사용

Vertex AI는 데이터 수집 또는 학습 후 평가 프로세스 중에 편향을 감지할 수 있습니다. Vertex AI는 모델의 편향을 평가하는 데 도움이 되는 데이터 편향모델 편향과 같은 모델 평가 측정항목을 제공합니다.

이러한 측정항목은 인종, 성별, 계급과 같은 다양한 카테고리의 공정성과 관련이 있습니다. 하지만 통계적 편차를 해석하는 것은 간단한 작업이 아닙니다. 카테고리 간의 차이가 편향이나 피해의 신호가 아닐 수 있기 때문입니다.

Vertex Explainable AI 사용

AI 모델이 어떻게 결정을 내리는지 알아보려면 Vertex Explainable AI를 사용하세요. 이 기능을 사용하면 모델의 로직에 숨겨져 있을 수 있는 잠재적 편향을 식별할 수 있습니다.

이 설명 가능성 기능은 특성 기반 설명을 제공하는 BigQuery MLVertex AI와 통합되어 있습니다. BigQuery ML에서 설명 가능성을 실행하거나 Vertex AI에 모델을 등록하고 Vertex AI에서 설명 가능성을 실행할 수 있습니다.

데이터 계보 추적

AI 시스템에 사용되는 데이터의 출처와 변환을 추적합니다. 이러한 추적을 통해 데이터의 여정을 파악하고 편향이나 오류의 잠재적인 원인을 파악할 수 있습니다.

데이터 계보는 시스템을 통해 데이터가 이동하는 방식, 즉 데이터의 출처, 데이터가 전달되는 위치, 데이터에 적용되는 변환을 추적할 수 있는 Dataplex 기능입니다.

책임성 설정

AI 시스템의 개발, 배포, 결과에 대한 명확한 책임을 설정합니다.

Cloud Logging을 사용하여 AI 시스템에서 내린 주요 이벤트와 결정을 기록합니다. 로그는 시스템의 성능을 파악하고 개선이 필요한 영역을 식별하는 데 도움이 되는 감사 추적을 제공합니다.

Error Reporting을 사용하여 AI 시스템에서 발생한 오류를 체계적으로 분석합니다. 이 분석을 통해 근본적인 편향이나 모델을 추가로 미세 조정해야 하는 영역을 나타내는 패턴을 파악할 수 있습니다.

개인 정보 차등 보호 구현

모델 학습 중에 데이터에 노이즈를 추가하여 개별 데이터 포인트를 식별하기 어렵게 만들면서도 모델이 효과적으로 학습할 수 있도록 합니다. BigQuery의 SQL을 사용하면 차등적인 비공개 집계로 쿼리 결과를 변환할 수 있습니다.