아키텍처 프레임워크: AI 및 ML 관점의 이 문서에서는 AI 및 ML 배포가 조직의 보안 및 규정 준수 요구사항을 충족하도록 하는 원칙 및 권장사항을 간략히 설명합니다. 이 문서의 권장사항은 아키텍처 프레임워크의 보안 분야에 따릅니다.
AI 및 ML 워크로드의 안전한 배포는 특히 엔터프라이즈 환경에서 중요한 요구사항입니다. 이 요구사항을 충족하려면 AI 및 ML 솔루션의 초기 개념화에서 시작하여 개발, 배포, 지속적인 운영으로 확장되는 전체적인 보안 접근 방식을 채택해야 합니다. Google Cloud 은 AI 및 ML 워크로드의 보안을 강화하도록 설계된 강력한 도구와 서비스를 제공합니다.
명확한 목표 및 요구사항 정의
개발 후에 제어 기능을 추가하는 것보다 설계 및 개발 프로세스 초기에 필요한 보안 및 규정 준수 제어 기능을 통합하는 것이 더 쉽습니다. 설계 및 개발 프로세스 시작부터 특정 위험 환경과 특정 비즈니스 우선순위에 적합한 결정을 내립니다.
다음 권장사항을 고려하세요.
- 잠재적인 공격 벡터를 파악하고 처음부터 보안 및 규정 준수 관점을 채택하세요. AI 시스템을 설계하고 발전시킬 때는 공격 노출 영역, 잠재적 위험, 발생할 수 있는 의무를 추적합니다.
- AI 및 ML 보안 노력을 비즈니스 목표에 맞추고 보안이 전반적인 전략의 필수적인 부분이 되도록 하세요. 보안 선택사항이 주요 비즈니스 목표에 미치는 영향을 이해합니다.
데이터를 안전하게 보호하고 손실 또는 오조작을 방지합니다.
데이터는 안전하게 보호되어야 하는 가치 있고 민감한 애셋입니다. 데이터 보안은 사용자 신뢰를 유지하고, 비즈니스 목표를 지원하며, 규정 준수 요구사항을 충족하는 데 도움이 됩니다.
다음 권장사항을 고려하세요.
- 비즈니스 목표에 꼭 필요한 것이 아닌 데이터는 수집, 보관 또는 사용하지 마세요. 가능하면 합성 데이터 또는 완전히 익명처리된 데이터를 사용하세요.
- 데이터 수집, 저장, 변환을 모니터링합니다. 모든 데이터 액세스 및 조작 활동에 관한 로그를 유지합니다. 로그를 사용하면 데이터 액세스를 감사하고, 무단 액세스 시도를 감지하고, 원치 않는 액세스를 방지할 수 있습니다.
- 사용자 역할에 따라 다양한 액세스 수준 (예: 액세스 불가, 읽기 전용 또는 쓰기)을 구현합니다. 최소 권한의 원칙에 따라 권한이 할당되었는지 확인합니다. 사용자는 역할 활동을 수행하는 데 필요한 최소한의 권한만 보유해야 합니다.
- 암호화, 보안 경계, 데이터 이동 제한과 같은 조치를 구현합니다. 이러한 조치는 데이터 무단 반출 및 데이터 손실을 방지하는 데 도움이 됩니다.
- ML 학습 시스템의 데이터 오염을 방지합니다.
조작으로부터 AI 파이프라인을 안전하고 강력하게 보호
AI 및 ML 코드와 코드 정의 파이프라인은 중요한 애셋입니다. 보호되지 않은 코드는 조작될 수 있으며, 이로 인해 데이터 유출, 규정 준수 실패, 중요한 비즈니스 활동 중단이 발생할 수 있습니다. AI 및 ML 코드를 안전하게 유지하면 모델과 모델 출력의 무결성과 가치를 보장하는 데 도움이 됩니다.
다음 권장사항을 고려하세요.
- 모델 개발 중에 종속 항목 관리, 입력 유효성 검사 및 정리와 같은 안전한 코딩 관행을 사용하여 취약점을 방지합니다.
- 파일, 모델 가중치, 배포 사양과 같은 파이프라인 코드 및 모델 아티팩트를 무단 액세스로부터 보호합니다. 사용자 역할 및 필요에 따라 각 아티팩트에 다른 액세스 수준을 구현합니다.
- 애셋 및 파이프라인 실행의 계보 및 추적을 적용합니다. 이러한 시정 조치는 규정 준수 요구사항을 충족하고 프로덕션 시스템을 손상시키지 않는 데 도움이 됩니다.
보안 도구 및 아티팩트를 사용하여 보안 시스템에 배포
코드와 모델이 환경에 배포된 도구 및 아티팩트에 대한 보안 보증이 포함된 강력한 액세스 제어 시스템이 있는 안전한 환경에서 실행되도록 합니다.
다음 권장사항을 고려하세요.
- 적절한 액세스 제어와 무단 사용 또는 조작에 대한 보호 기능이 있는 안전한 환경에서 모델을 학습하고 배포합니다.
- 모델 및 소프트웨어 패키지와 같은 AI 관련 아티팩트에 표준 SLSA (소프트웨어 아티팩트에 대한 공급망 등급) 가이드라인을 따르세요.
- AI 워크로드용으로 특별히 설계된 검증된 사전 빌드된 컨테이너 이미지를 사용하는 것이 좋습니다.
입력 보호 및 모니터링
AI 시스템은 예측을 하거나, 콘텐츠를 생성하거나, 작업을 자동화하기 위해 입력이 필요합니다. 일부 입력은 위험을 초래하거나 감지 및 정리해야 하는 공격 벡터로 사용될 수 있습니다. 잠재적으로 악의적인 입력을 조기에 감지하면 AI 시스템을 안전하게 유지하고 의도한 대로 작동하도록 할 수 있습니다.
다음 권장사항을 고려하세요.
- 생성형 AI 시스템의 프롬프트를 개발하고 관리하기 위한 보안 관행을 구현하고 프롬프트에서 유해한 의도가 있는지 선별합니다.
- 예측 또는 생성형 시스템에 대한 입력을 모니터링하여 과부하된 엔드포인트나 시스템이 처리하도록 설계되지 않은 프롬프트와 같은 문제를 방지합니다.
- 배포된 시스템의 의도한 사용자만 사용할 수 있도록 합니다.
결과 모니터링, 평가, 대응 준비
AI 시스템은 인간의 의사 결정을 보강, 최적화 또는 자동화하는 출력을 생성하므로 가치를 제공합니다. AI 시스템과 애플리케이션의 무결성과 신뢰성을 유지하려면 출력이 안전하고 예상 매개변수 내에 있는지 확인해야 합니다. 또한 사고에 대응할 계획도 필요합니다.
다음 권장사항을 고려하세요.
- 프로덕션에서 AI 및 ML 모델의 출력을 모니터링하고 성능, 보안, 규정 준수 문제를 식별합니다.
- 예측 모델에서 범위를 벗어난 생성형 응답이나 극단적인 출력을 식별하는 등 강력한 측정항목과 보안 조치를 구현하여 모델 성능을 평가합니다. 모델 성능에 대한 사용자 의견을 수집합니다.
- 잠재적인 문제를 해결하기 위해 강력한 알림 및 이슈 대응 절차를 구현합니다.
참여자
저자:
- 카밀라 쿠르타 | 생성형 AI/ML 전문가 고객 엔지니어
- 필리페 그라시오, 박사 | 고객 엔지니어
- Mohamed Fawzi | 벨기에, 네덜란드, 룩셈부르크 보안 및 규정 준수 책임자
기타 참여자: