생성형 AI 시대를 위한 준비: 기업에서 AI를 올바르게 활용하는 데 필요한 요소
June Yang
VP, Cloud AI & Industry Solutions
생성형 AI에는 그 혁신적인 특성상 조직이 신뢰할 수 있는 개인 정보 보호, 보안, 제어, 규정 준수 기능을 제공하는 플랫폼이 필요합니다.
*본 아티클의 원문은 2023년 11월 4일 Google Cloud 블로그(영문)에 게재되었습니다.
기술 혁명이라 할 수 있는 생성형 AI의 시대에 들어섰습니다. 생성형 AI는 개인의 삶은 물론 업무 생활 전반에서 창작, 참여, 협력 방식을 재정의할 수 있는 잠재력이 있습니다. 간단히 말해 생성형 AI가 가져다줄 새롭고 지금껏 상상하지 못했던 기회는 인간의 집단 지성, 창의력, 통찰력과 만나 지금까지 가능하다고 생각해 왔던 것들을 완전히 뒤집어 놓을 것입니다. 하지만 많은 조직이 이 강력한 도구를 통합하고 배포하는 것에 대해 아직 의구심을 떨치지 못하고 있습니다.
Google Cloud는 고객이 개인 정보 보호, 보안, 규정 준수 기능을 갖춘 생성형 AI의 잠재력을 충분히 활용할 수 있도록 지원하기 위해 최선을 다하고 있습니다. Google Cloud의 목표는 AI 원칙에 기반한 노력을 지속함과 동시에 시스템을 보호하고, 투명성을 보장하며, 유연하고 항시 사용할 수 있는 인프라를 제공하여 신뢰를 구축하는 것입니다.
이 게시물에서는 고객이 차세대 생성형 AI 프로젝트를 빌드하기 위한 기업용 솔루션으로 Google Cloud를 선택하는 이유와 Google Cloud가 규모를 막론하고 모든 조직의 선도적인 제품에 AI 및 데이터 전문성을 이식하는 방법을 자세히 설명합니다.
Google Cloud를 통한 데이터 거버넌스, 개인 정보 보호, 면책
생성형 AI의 세계에서는 무엇보다도 데이터 거버넌스와 개인 정보 보호가 가장 중요합니다. 이런 이유로 Google Cloud에서는 고객이 데이터를 직접 관리하고 무단 액세스로부터 조직의 정보를 보호할 수 있도록 지원하는 것을 사명으로 삼아 왔습니다.
무엇보다도 고객의 데이터는 고객의 소유이며 고객의 허락 없이는 Google에서 절대로 사용하지 않습니다. 여기서 말하는 '고객의 데이터'란 고객이 Google Cloud에 저장하는 모든 고객 데이터를 비롯해 입력 프롬프트, 모델 출력, 조정 데이터를 포함합니다. 이러한 모든 데이터는 고객의 데이터 및 IP의 일부입니다. Google Cloud는 고객의 허락 또는 지시 없이는 모델을 학습시키는 데 고객의 데이터를 절대로 사용하지 않습니다. 대신 고객이 직접 사용하거나 고객이 지시한 명시적 목적으로만 사용됩니다.
Google Cloud는 학습 데이터 중복 삭제, 세이프티 필터와 같은 특정 기술을 활용해 책임감 있는 데이터 사용을 보장합니다. 내부 학습 데이터의 중복 삭제를 통해 중복성을 제거하면 시스템을 더욱 효율적으로 만들 수 있습니다. 한편, 안전 필터는 모델이 학습 데이터나 기타 문제가 있는 콘텐츠를 재현하지 못하도록 방지하는 데 도움이 됩니다.
Google의 파운데이션 모델을 사용하여 생성한 출력도 고객의 데이터입니다. 이 아이디어를 뒷받침하기 위해 Google Cloud에서는 최근 생성형 AI와 관련한 지식 재산 면책 확대 조치를 발표했습니다.
이러한 두 갈래의 면책 접근 방식은 Google Cloud의 서비스를 책임감 있는 방식으로 사용하는 고객에게 적용되며 1) Google Cloud의 모든 생성형 AI 서비스에 활용되는 Google 파운데이션 모델을 만들기 위해 Google이 사용하는 학습 데이터, 2) 일부 서비스를 위해 고객이 생성한 출력을 포함합니다. 학습 데이터 면책 조항은 항상 Google Cloud의 약관에 포함되어 있었지만 고객에게 더 명확하게 설명하고 싶었습니다.
Google Cloud에서 제공하는 보호 장치를 사용하면 데이터 거버넌스와 개인 정보 보호를 소홀히 하지 않고도 생성형 AI의 잠재력을 안심하고 수용할 수 있습니다. 명확성, 단순성, 진정성을 바탕으로 실질적인 문제를 해결할 수 있다고 믿기 때문입니다.
Google Cloud의 보안 및 규정 준수 지원
Vertex AI에는 데이터와 모델이 파운데이션 모델을 학습시키는 데 사용되거나 다른 고객에게 노출되지 않도록 하는 강력한 데이터 보호 조치가 이미 적용되어 있습니다. 하지만 조직은 여전히 두 가지 사항을 우려합니다. 첫 번째는 '데이터를 보호할 수 있는가'이고, 두 번째는 '개인 정보(PI) 또는 개인 식별 정보(PII)와 같은 민감한 요소가 포함되어 있을 수 있는 자체 데이터로 모델을 맞춤설정하거나 학습시키는 것의 위험을 줄일 수 있는가'입니다. 이러한 개인 정보는 모델이 제대로 기능하는 데 필요한 컨텍스트와 관련이 있는 경우가 많습니다. 데이터를 효과적으로 분류, 익명처리, 보호하기 위해 Google Cloud에서는 다음을 포함한 여러 가지 강력한 도구와 서비스를 지속적으로 최적화하고 있습니다.
- Sensitive Data Protection 서비스는 마스킹, 토큰화 등 민감한 정보 감지 및 변환 옵션을 제공하여 학습과 조정에서 추론에 이르기까지 생성형 AI 모델의 수명 주기 전반에 데이터 보호 계층을 추가합니다.
- VPC 서비스 제어는 정의된 데이터 경계 내에서 안전하게 배포할 수 있도록 해줍니다. 이 도구를 사용하면 경계를 정의하여 리소스를 격리하고, 액세스를 제어 및 제한하며, 데이터 무단 반출이나 유출의 위험을 줄일 수 있습니다.
Google Cloud는 Assured Workloads와 관리를 위한 액세스 투명성 및 액세스 승인과 같은 디지털 주권 관련 서비스에 계속 투자하고 이를 확장하고 있습니다. 또한 규제가 적용되는 고객의 클라우드 환경에 혁신적인 서드 파티 솔루션을 제공하기 위해 규제 대상 및 주권 솔루션 파트너 이니셔티브를 지속적으로 확대하고 있습니다.
고객에게 높은 수준의 보안 및 제어 기능을 제공할 뿐만 아니라 고객의 규정 준수를 돕는 데도 최선을 다하고 있습니다. 고객 데이터 사용에 관한 투명성 제고 노력, 고객의 데이터 보호 영향 평가(DPIA) 지원 등 종합적인 GDPR 및 HIPAA 개인 정보 보호 지원 활동에 참여하고 있습니다. Google Cloud팀은 새 규정과 업데이트된 규정을 면밀히 모니터링하고 분석하며, 원탁회의 및 기타 포럼을 통해 정기적으로 규제 기관과 소통하고 규제 기관의 정보 요청에 대응합니다.
Google Cloud와 함께 구축하는 인프라 안정성 및 지속 가능성
대규모 생성형 AI 모델을 빌드하고 프로덕션화하려면 어마어마한 양의 전용 계산, 데이터 처리, 워크로드 동시 로드 작업이 필요합니다. 이러한 이유로 여러 기업이 AI 워크로드를 위해 빌드된 인프라로 전환하는 것입니다. 고객의 성능, 비용, 안정성 니즈를 AI 프로젝트에 맞게 조정할 수 있도록 Google Cloud는 당사 또는 파트너가 보유한 옵션을 다양하게 제공하고 있습니다. 이러한 유연성 덕분에 AI 유니콘 기업의 70% 이상이 AI 인프라로 Google Cloud를 활용하고 있습니다.
우선 Tensor Processing Unit(TPU)은 PaLM 2와 같은 대규모 언어 모델을 학습시키고 제공하는 데 필요한 집약적 워크로드를 충족하도록 설계되었습니다. 각각의 생성형 AI 워크로드는 저마다 요구 사항이 다르기 때문에 Google Cloud와 당사의 파트너 생태계에서는 대규모 모델 학습 및 추론에 최적화된 NVIDIA의 최신 가속기를 포함하여 다양한 컴퓨팅 옵션을 제공합니다. 또한 Google Cloud의 딥 러닝 VM은 보다 널리 사용되는 AI 프레임워크에 맞게 사전 구성되어 소프트웨어 호환성에 대한 걱정 없이 딥 러닝 프로젝트를 빠르고 간편하게 시작할 수 있도록 지원합니다.
이러한 기능을 사용하는 조직은 인프라에 대한 걱정을 내려놓고 고객에게 집중할 수 있습니다. Google Cloud와 협력하면 조직이 사용자에게 중단 없는 서비스를 제공할 수 있도록 Google Cloud가 어려운 작업을 대신 처리해 드립니다. 복원력, 확장성, 에너지 효율이 뛰어난 Google Cloud의 글로벌 네트워크는 매우 적은 탄소 비용으로 조직이 필요로 하는 고가용성 성능을 제공할 수 있습니다.
Google Cloud 고객은 지속 가능성 목표를 초과 달성할 수 있는 방법을 지속적으로 찾고 있습니다. 지속 가능성과 탄소 중립 달성을 위한 Google Cloud의 노력을 통해 조직은 환경 발자국을 최소화하면서도 견고한 신뢰성을 구축할 수 있습니다. Google Cloud의 인프라는 단순히 첨단 기술을 제공하는 데 그치지 않고, 이 첨단 기술을 모든 기술 및 운영 계층의 핵심에서 지속 가능성을 염두에 두고 책임감 있는 방식으로 제공하는 것을 목표로 합니다.
책임감 있는 AI: Google의 노력
Google은 AI가 주는 이점을 극대화하는 동시에 위험을 사전에 완화한다는 원칙을 고수하고 있으며, 조직에서도 이를 쉽게 수행할 수 있도록 지원하고자 합니다. Google Cloud에서는 AI의 책임감 있는 개발 및 사용을 위해 다각적인 접근 방식을 취합니다. 개발에서 배포에 이르는 ML 수명 주기 전반에서 책임감 있는 방식으로 AI 제품을 빌드하기 때문에 Google Cloud의 제품은 사용하기 안전합니다. 또한 혐오 표현, 인종 편견, 악의적인 표현 등 다운스트림 우려를 해소하기 위해 대규모 모델에 대한 데이터 세트를 책임감 있게 선별합니다.
학습 중에는 유해한 결과를 생성할 가능성이 있는 시나리오에 대해 모델을 스트레스 테스트하고 이러한 위험을 완화하기 위해 모델을 조정합니다. 배포 단계에서는 고객과 협력하여 책임감 있는 AI 프레임워크 및 평가를 만들고 확장하는 등 고객이 AI를 책임감 있게 활용하는 데 필요한 도구를 제공합니다. 예를 들어 편견, 악의적인 표현, 그 밖의 유해한 콘텐츠를 포함한 문제를 해결하기 위해 고객에게 안전 필터를 제공합니다.
Google Cloud는 실질적인 문제를 해결하는 데 중점을 두고 간단하고, 투명하며, 진정성 있는 서비스를 제공합니다. Google Cloud의 제품은 데이터 거버넌스, 개인 정보 보호, 보안, 규정 준수, 인프라 안정성, 책임감 있는 AI 관행에 대한 종합적인 접근 방식을 통해 기업에서 사용하고 확장하기 적합하게 빌드됩니다. Google Cloud에서는 앞으로도 고객이 생성형 AI의 잠재력을 안전하고, 지속 가능하며, 책임감 있는 방식으로 십분 활용할 수 있도록 지원하기 위해 이러한 접근 방식을 견지할 것입니다.