안전한 AI 프레임워크(SAIF) 및 Google Cloud

GShield

안전한 AI 프레임워크(SAIF) 및 Google Cloud

안전한 AI 프레임워크(SAIF) 및 Google Cloud

안전한 AI 프레임워크(SAIF)는 AI 시스템을 보호하려는 조직에 가이드를 제공합니다.

Google은 AI 시스템을 안전하게 빌드하고 배포하는 데 도움이 되도록 조직에서 SAIF를 구현하는 데 필요한 SAIF 위험 자가 진단을 포함한 SAIF.google을 만들었습니다.

아래에서는 SAIF의 관점에서 Google Cloud Security 포트폴리오를 살펴보고 다양한 클라우드 솔루션과 제어 기능을 통해 조직이 잠재적인 AI 위험을 완화하는 데 Google이 어떻게 도움이 되는지 알아보겠습니다.

작동 방식

SAIF 위험 보고서에서 확인된 위험을 해결하고 싶으신가요? 지금 시작하기

일반적인 용도

데이터 포이즈닝

Google Cloud는 보안에 대한 약속의 일환으로 기본 모델에 무단 복사 또는 읽기를 방지하는 광범위한 액세스 제어 기능과 무단 작업을 모니터링하는 최첨단 감지 기능을 갖추고 있습니다.

또한 Google Cloud는 고객이 Google 모델 또는 자체 서드 파티 서비스 사용을 보호하기 위해 플랫폼에서 구성할 수 있는 제어 기능을 제공합니다. 조직 정책 및 VPC 서비스 제어는 무단 액세스를 방지하는 세분화된 Identity and Access Management(IAM) 제어와 함께 데이터 무단 반출을 방지합니다.

Google Cloud가 고객의 데이터 보호를 지원하는 방법에 대해 자세히 알아보세요.

  • VPC 서비스 제어 - Vertex AI 관련 정책을 포함하여 클라우드 리소스, 민감한 정보, 네트워크 주변에 격리 경계를 만들어 데이터 무단 반출을 방지합니다.
  • 조직 정책 서비스를 통해 보안 가드레일을 제공하여 허용되거나 거부되는 리소스 구성을 적용합니다.
  • Vertex AI Model Registry를 사용하여 ML 모델의 수명 주기를 정리, 추적, 관리하세요.
  • 데이터 보안 상황 관리 - 액세스 및 흐름 제어 정책을 통해 보안, 개인 정보 보호, 규정 준수를 위해 모델, 데이터 세트, 관련 ML 아티팩트를 관리합니다.
  • 컨피덴셜 컴퓨팅으로 구동되는 Confidential AI는 CPU에서 GPU에 이르는 기밀성, 무결성, 격리 기능을 통해 하드웨어 기반 데이터 및 모델 보호를 확장하여 AI 및 머신러닝에 중요한 워크로드 가속화를 지원합니다. 최근 Google은 AI/ML 워크로드의 개인 정보와 기밀성을 보호하도록 특별히 설계된 두 가지 새로운 컨피덴셜 컴퓨팅 제품을 발표했습니다. NVIDIA H100 Tensor Core GPU로 구동되는 컨피덴셜 VM과 Intel Advanced Matrix Extensions(Intel AMX) 지원 컨피덴셜 VM이 바로 그것입니다. 자세히 알아보기
  • Google 액세스 권한 관리: 액세스 승인, 액세스 투명성, 키 액세스 근거를 통해 데이터 및 암호화 키 액세스에 대한 신뢰를 보호합니다. Google은 Google 직원의 고객 데이터 액세스 요청을 공유하고 고객에게 AI 워크로드를 포함한 클라우드 제공업체 데이터 액세스에 대해 명시적 제어(복수 사용자 승인자로서의 고객 액세스 승인) 또는 암호화로 강화된 근거 기반(키 액세스 근거) 제어를 요구할 수 있는 기능을 제공합니다. 암호화 검증과 상세한 로그를 통해 완전한 투명성과 제어를 보장하여 AI 관련 데이터를 포함한 민감한 정보 처리에 대한 Google의 신뢰를 구축합니다. 

    Google Cloud는 보안에 대한 약속의 일환으로 기본 모델에 무단 복사 또는 읽기를 방지하는 광범위한 액세스 제어 기능과 무단 작업을 모니터링하는 최첨단 감지 기능을 갖추고 있습니다.

    또한 Google Cloud는 고객이 Google 모델 또는 자체 서드 파티 서비스 사용을 보호하기 위해 플랫폼에서 구성할 수 있는 제어 기능을 제공합니다. 조직 정책 및 VPC 서비스 제어는 무단 액세스를 방지하는 세분화된 Identity and Access Management(IAM) 제어와 함께 데이터 무단 반출을 방지합니다.

    Google Cloud가 고객의 데이터 보호를 지원하는 방법에 대해 자세히 알아보세요.

    • VPC 서비스 제어 - Vertex AI 관련 정책을 포함하여 클라우드 리소스, 민감한 정보, 네트워크 주변에 격리 경계를 만들어 데이터 무단 반출을 방지합니다.
    • 조직 정책 서비스를 통해 보안 가드레일을 제공하여 허용되거나 거부되는 리소스 구성을 적용합니다.
    • Vertex AI Model Registry를 사용하여 ML 모델의 수명 주기를 정리, 추적, 관리하세요.
    • 데이터 보안 상황 관리 - 액세스 및 흐름 제어 정책을 통해 보안, 개인 정보 보호, 규정 준수를 위해 모델, 데이터 세트, 관련 ML 아티팩트를 관리합니다.
    • 컨피덴셜 컴퓨팅으로 구동되는 Confidential AI는 CPU에서 GPU에 이르는 기밀성, 무결성, 격리 기능을 통해 하드웨어 기반 데이터 및 모델 보호를 확장하여 AI 및 머신러닝에 중요한 워크로드 가속화를 지원합니다. 최근 Google은 AI/ML 워크로드의 개인 정보와 기밀성을 보호하도록 특별히 설계된 두 가지 새로운 컨피덴셜 컴퓨팅 제품을 발표했습니다. NVIDIA H100 Tensor Core GPU로 구동되는 컨피덴셜 VM과 Intel Advanced Matrix Extensions(Intel AMX) 지원 컨피덴셜 VM이 바로 그것입니다. 자세히 알아보기
    • Google 액세스 권한 관리: 액세스 승인, 액세스 투명성, 키 액세스 근거를 통해 데이터 및 암호화 키 액세스에 대한 신뢰를 보호합니다. Google은 Google 직원의 고객 데이터 액세스 요청을 공유하고 고객에게 AI 워크로드를 포함한 클라우드 제공업체 데이터 액세스에 대해 명시적 제어(복수 사용자 승인자로서의 고객 액세스 승인) 또는 암호화로 강화된 근거 기반(키 액세스 근거) 제어를 요구할 수 있는 기능을 제공합니다. 암호화 검증과 상세한 로그를 통해 완전한 투명성과 제어를 보장하여 AI 관련 데이터를 포함한 민감한 정보 처리에 대한 Google의 신뢰를 구축합니다. 

      모델 무단 반출, 모델 소스 변조, 데이터 포이즈닝과 같은 AI 위험을 해결하기 위한 추가 지원이 필요하신가요?

      Google Cloud 컨설팅 서비스는 모델 및 데이터 액세스 제어를 위한 강력한 AI 보안 상황을 달성하는 데 도움이 됩니다

      • 안전한 클라우드 기반: AI 워크로드를 실행하는 데 필요한 보호 기능을 갖춘 강력하고 안전한 인프라 기반을 구축합니다.
      • 생성형 AI 보안 가속기: Google의 AI 보안 전문가로부터 Google의 안전한 AI 프레임워크를 구현하여 생성형 AI 워크로드를 AI 관련 위험으로부터 보호하는 방법을 알아보세요.
      • 보안 강화: 코드형 인프라(IaC)를 사용한 설계와 엔드 투 엔드 AI 서비스 배포를 보호합니다.
      • 고급 위협 시뮬레이션: 격리된 Google Cloud 환경에서 실제 AI 위협을 시뮬레이션하여 보안팀을 교육하고 보안 사고에 대응할 준비 상태를 평가합니다.

      Google Cloud 컨설팅 서비스에 문의

      Mandiant 전문가와 협력하여 AI를 안전하게 활용하세요. 

      • AI를 위한 레드팀: AI 시스템을 보호하는 방어 체계를 검증하고 AI 시스템과 관련된 활성 공격을 탐지하고 이에 대응하는 역량을 평가합니다.
      • AI 사용 보안: AI 모델을 기반으로 하는 아키텍처, 데이터 방어, 애플리케이션을 평가하고 보안 프레임워크를 사용하여 위협 모델을 개발합니다.

      Mandiant 보안 전문가에게 문의


      이 위험 카테고리가 어떤 SAIF 위험 자가 진단 질문과 관련이 있는지 궁금하신가요?

      • 학습, 조정 또는 평가 데이터에서 악의적이거나 우발적인 변경사항을 감지하고 삭제하며 해결할 수 있나요? 
      • 모든 모델, 데이터 세트(학습, 조정 또는 평가용), 관련 ML 아티팩트(코드 등)의 전체 인벤토리를 보유하고 있나요? 
      • 모든 모델, 데이터 세트, 관련 ML 아티팩트에 대한 강력한 액세스 제어를 갖추고 있어 무단 읽기 또는 복사를 최소화하고 감지하며 방지할 수 있나요? 
      • 모델 개발 및 배포 중에 감지되지 않고 모델을 학습, 조정 또는 평가하는 데 사용되는 모든 데이터, 모델, 코드가 변조되지 않도록 할 수 있나요?
      • 모델 개발 및 배포에 사용되는 프레임워크, 라이브러리, 소프트웨어 시스템, 하드웨어 구성요소를 분석하여 보안 취약점을 파악하고 이에 대비하고 있나요?
      SAIF 위험 자가 진단 수행

        ML 서비스 거부

        보안은 Google Cloud의 핵심 테넌트이며 Google은 심층 방어 접근 방식을 취하고 있습니다. Google은 강력한 조치의 일환으로 DDoS와 같은 서비스 중단에 대비해 강력한 보호 기능을 갖추고 있습니다. 또한 Cloud Armor를 통해 고객이 이러한 DDoS 및 애플리케이션 계층 스타일 공격으로부터 보호하기 위해 활용할 수 있는 추가 제어 기능도 제공합니다.

        Google Cloud의 기본 제공 보안 및 위험 관리 솔루션인 Security Command Center는 예방 및 감지 제어 기능을 통해 Vertex AI 애플리케이션을 보호합니다. 여기에는 Vertex AI 보안 이벤트에 대한 대응과 실제 공격자가 Vertex AI 워크로드에 액세스하여 이를 손상시키는 방법을 모방하는 공격 경로 시뮬레이션이 포함됩니다.   

        AI 애플리케이션의 경우 고객은 Model Armor를 활용하여 파운데이션 모델 프롬프트와 응답을 검사, 라우팅, 보호할 수도 있습니다. 고객이 프롬프트 인젝션, 탈옥, 유해한 콘텐츠, 민감한 정보 유출과 같은 위험을 완화하는 데 도움이 될 수 있습니다. Model Armor는 Vertex AI를 비롯한 Google Cloud 전반의 제품과 통합됩니다. Model Armor의 사전 체험판에 대해 자세히 알아보려면 여기에서 가입하거나 주문형 동영상을 시청하세요.


          보안은 Google Cloud의 핵심 테넌트이며 Google은 심층 방어 접근 방식을 취하고 있습니다. Google은 강력한 조치의 일환으로 DDoS와 같은 서비스 중단에 대비해 강력한 보호 기능을 갖추고 있습니다. 또한 Cloud Armor를 통해 고객이 이러한 DDoS 및 애플리케이션 계층 스타일 공격으로부터 보호하기 위해 활용할 수 있는 추가 제어 기능도 제공합니다.

          Google Cloud의 기본 제공 보안 및 위험 관리 솔루션인 Security Command Center는 예방 및 감지 제어 기능을 통해 Vertex AI 애플리케이션을 보호합니다. 여기에는 Vertex AI 보안 이벤트에 대한 대응과 실제 공격자가 Vertex AI 워크로드에 액세스하여 이를 손상시키는 방법을 모방하는 공격 경로 시뮬레이션이 포함됩니다.   

          AI 애플리케이션의 경우 고객은 Model Armor를 활용하여 파운데이션 모델 프롬프트와 응답을 검사, 라우팅, 보호할 수도 있습니다. 고객이 프롬프트 인젝션, 탈옥, 유해한 콘텐츠, 민감한 정보 유출과 같은 위험을 완화하는 데 도움이 될 수 있습니다. Model Armor는 Vertex AI를 비롯한 Google Cloud 전반의 제품과 통합됩니다. Model Armor의 사전 체험판에 대해 자세히 알아보려면 여기에서 가입하거나 주문형 동영상을 시청하세요.


            ML 서비스 거부 및 모델 리버스 엔지니어링과 같은 AI 위험을 해결하기 위한 추가 지원이 필요하신가요?

            Mandiant 전문가와 협력하여 AI를 안전하게 활용하세요.

            • AI를 위한 레드팀: AI 시스템을 보호하는 방어 체계를 검증하고 AI 시스템과 관련된 활성 공격을 탐지하고 이에 대응하는 역량을 평가합니다.
            • AI 사용 보안: AI 모델을 기반으로 하는 아키텍처, 데이터 방어, 애플리케이션을 평가하고 보안 프레임워크를 사용하여 위협 모델을 개발합니다.

            Mandiant 보안 전문가에게 문의


            이 위험 카테고리가 어떤 SAIF 위험 자가 진단 질문과 관련이 있는지 궁금하신가요?

            • 사용자 계정, 기기 또는 API를 통한 대규모 악성 쿼리에 대해 생성형 AI 애플리케이션 및 모델을 보호하고 있나요?
            SAIF 위험 자가 진단 수행

              Google Cloud로 AI 보안 상황 강화

              AI 보안이 특별한 이유를 이해하고 싶으신가요? AI와 기존 소프트웨어 개발의 보안 차이점을 알아보세요.

              조직에서 AI 대화를 시작해야 하나요? AI를 안전하게 사용하고 보안상의 이점을 활용하기 위해 CISO가 질문하고 답해야 하는 7가지 핵심 질문으로 지금 바로 시작하세요.

              생성형 AI, 개인 정보 보호, Google Cloud: AI 데이터 구성요소를 처리할 준비가 되셨나요? 생성형 AI 서비스를 개발할 때 개인 정보 보호 및 데이터 보호에 대한 Google Cloud의 접근 방식을 자세히 알아보세요.

              Google Cloud