이 문서에서는 AI 기반 지원을 제공하는 Google Cloud를 위한 Gemini가 생성형 AI 기술로 Google 개인 정보 보호 약정을 준수하는 방법을 설명합니다. Google Cloud 콘솔 또는 개발 환경에서 Gemini를 사용하는 경우 Google Cloud는 서비스 약관 및 Cloud 데이터 처리 추가 조항에 따라 프롬프트를 처리합니다.
Gemini에 대한 자세한 내용은 AI 지원 및 개발에 Gemini 사용하기를 참조하세요.
Google 개인 정보 보호 약정
Google은 업계 최초로 AI/ML 개인 정보 보호 약정을 발표했습니다. 여기에는 클라우드에 저장된 고객 데이터에 대해 고객이 가장 높은 수준의 보안 및 제어 권한을 가져야 한다는 Google의 신념이 표명되어 있습니다. 이 약정은 Google Cloud 생성형 AI 제품으로 확장됩니다. Google은 Google Cloud가 제품 개발에 사용하는 데이터에 대한 검토가 포함하여 업무팀이 강력한 데이터 거버넌스 규정을 통해 이러한 약정을 준수하도록 보장합니다. 고객 데이터 처리 추가 조항(CDPA) 또는 Google Cloud 서비스에 적용되는 데이터 처리 약관에서 Google이 데이터를 처리하는 방법을 자세히 알아볼 수 있습니다.
사용자가 제출 및 수신하는 데이터
분석이나 작성을 위해 Gemini에 제출하는 모든 입력 정보 또는 코드를 포함해 Gemini에 묻는 질문을 프롬프트라고 합니다. Gemini에서 받는 답변 또는 코드 완성을 응답이라고 합니다. Gemini는 프롬프트나 해당 응답을 데이터로 사용하여 모델을 학습시키지 않습니다.
Gemini는 발전 중인 기술이기 때문에 그럴듯하게 들리지만, 실제로는 잘못된 출력을 생성할 수 있습니다. 사용하기 전에 Gemini의 모든 출력을 검증하는 것이 좋습니다. 자세한 내용은 Google Cloud를 위한 Gemini와 책임감 있는 AI를 참조하세요.
프롬프트 암호화
Gemini에 프롬프트를 제출하면 Gemini의 기본 모델에 입력으로 전송 중인 데이터가 암호화됩니다. Gemini 데이터 암호화에 대한 자세한 내용은 기본 저장 데이터 암호화 및 전송 중인 데이터 암호화를 참조하세요.
Gemini에서 생성된 프로그램 데이터
Gemini는 퍼스트 파티 Google Cloud 코드 및 선택된 서드 파티 코드로 학습됩니다. Gemini가 제공하는 코드 완성, 생성, 분석을 포함해 코드의 보안, 테스트, 효과에 대한 책임은 사용자에게 있습니다.
또한 Gemini는 라이선스 요구사항을 준수하는 데 도움이 되도록 추천이 출처로부터 직접 자세하게 인용될 경우 출처 인용을 제공합니다.
Gemini의 응답은 여러 코드 줄로 학습된 모델에서 생성되므로 다른 코드와 마찬가지로 Gemini 제공 코드 사용 시 주의해야 합니다. 코드를 올바르게 테스트하고 보안 취약점, 비호환성, 기타 잠재적 문제를 확인해야 합니다.