이 문서에서는 생성형 AI와 관련된 기능, 제한사항, 위험과 관련해 Gemini를 어떻게 설계했는지 설명합니다.
대규모 언어 모델의 기능 및 위험
대규모 언어 모델(LLM)은 다음과 같은 여러 유용한 태스크를 수행할 수 있습니다.
- 언어를 번역합니다.
- 텍스트를 요약합니다.
- 코드를 생성하고 창의적 글쓰기를 돕습니다.
- 챗봇 및 가상 어시스턴트를 지원합니다.
- 검색엔진 및 추천 시스템을 보완합니다.
한편 LLM은 발전 중인 기술이기 때문에 악용, 오용, 의도치 않거나 예측하지 못한 결과가 발생할 수 있습니다.
LLM은 불쾌감을 주거나 민감하지 않거나 사실에 맞지 않는 텍스트를 포함하여 예상치 못한 출력을 생성할 수 있습니다. LLM은 매우 다양한 용도로 사용되기 때문에 발생할 수 있는 의도치 않거나 예측하지 못한 출력의 유형을 정확히 예측하기가 어렵습니다.
이러한 위험과 복잡성을 감안하여 Google Cloud를 위한 Gemini는 Google의 AI 원칙을 염두에 두고 설계되었습니다. 하지만 Google Cloud를 위한 Gemini가 안전하고 책임감 있게 작업하기 위해서는 사용자가 일부 제한사항을 이해하는 것이 중요합니다.
Google Cloud를 위한 Gemini 제한사항
Google Cloud를 위한 Gemini를 사용할 때 발생할 수 있는 몇 가지 제한사항은 다음과 같습니다(이에 국한되지 않음).
특이한 케이스. 특이한 케이스는 학습 데이터에 잘 표현되지 않는 일반적이지 않거나 드물거나 예외적인 상황을 나타냅니다. 이러한 케이스로 인해 모델 과신, 잘못된 컨텍스트 해석, 부적절한 출력 등 Gemini 출력이 제한될 수 있습니다.
모델 할루시네이션, 근거, 사실성. Google Cloud를 위한 Gemini에 실제 지식, 물리적 속성 또는 정확한 이해에 대한 근거와 사실성이 부족할 수 있습니다. 이러한 제한사항으로 인해 모델 할루시네이션이 발생할 수 있습니다. 모델 할루시네이션이 발생할 경우 Gemini가 그럴듯하게 들리지만, 실제로는 잘못되었거나 관련이 없거나 부적절하거나 무의미한 출력을 생성할 수 있습니다. 또한 존재하지 않거나 존재한 적 없는 웹페이지에 대한 링크를 조작할 수도 있습니다. 자세한 내용은 보다 효과적인 Google Cloud를 위한 Gemini 프롬프트 작성을 참조하세요.
데이터 품질 및 조정. Gemini에 입력되는 프롬프트 데이터의 품질, 정확성, 편향은 성능에 상당한 영향을 미칠 수 있습니다. 사용자가 부정확하거나 잘못된 프롬프트를 입력하면 Gemini는 최적이 아니거나 거짓인 응답을 반환할 수 있습니다.
편향 증폭. 언어 모델이 학습 데이터의 기존 편향을 의도치 않게 증폭시켜 사회적 편견과 특정 그룹의 불공평한 대우를 더욱 강화하는 결과가 발생할 수 있습니다.
언어 품질. Gemini는 평가 기준이 되는 벤치마크에 관한 많은 다국어 기능을 제공하지만 대부분의 벤치마크(모든 공정성 평가 포함)가 미국 영어를 사용합니다.
언어 모델은 사용자마다 일관성 없는 서비스 품질을 제공할 수 있습니다. 예를 들어 학습 데이터의 과소 표현으로 인해 텍스트 생성이 일부 언어나 언어 다양성에 효과적이지 않을 수 있습니다. 영어가 아닌 언어나 표현이 적은 영어와 유사한 언어의 경우 성능이 저하될 수 있습니다.
공정성 벤치마크 및 하위 그룹. Google 연구팀의 Gemini에 대한 공정성 분석에서는 다양한 잠재적 위험을 철저하게 설명하지 않습니다. 예를 들어 성별, 인종, 민족, 종교 축에 따른 편향에 초점을 맞추지만 미국 영어 데이터와 모델 출력에 대한 분석만 수행합니다.
제한된 분야 전문성. Gemini는 Google Cloud 기술을 학습했지만, 고도로 전문화되거나 기술적인 주제에 대한 정확하고 자세한 응답을 제공하는 데 필요한 깊이 있는 지식이 부족하여 피상적이거나 잘못된 정보를 전달할 수 있습니다.
Google Cloud 콘솔에서 Gemini 창을 사용하는 경우 Gemini는 특정 환경의 컨텍스트를 인식하지 못하므로 '마지막으로 VM을 만든 때가 언제인가요?'와 같은 질문에는 답할 수 없습니다.
경우에 따라 Gemini는 컨텍스트별 응답을 받기 위해 컨텍스트의 특정 세그먼트를 모델에 보냅니다. 예를 들어 Error Reporting 서비스 페이지에서 문제 해결 제안 버튼을 클릭하는 경우입니다.
Gemini 안전 및 유해성 필터링
Google Cloud를 위한 Gemini 프롬프트와 응답은 각 사용 사례에 적용되는 포괄적인 보안 속성 목록과 대조해 확인됩니다. 이러한 안전 속성은 서비스이용 정책을 위반하는 콘텐츠를 필터링하는 것입니다. 출력이 유해하다고 판단되면 응답이 차단됩니다.
다음 단계
- 코드 생성을 지원할 때 Gemini가 소스를 인용하는 방법에 대해 자세히 알아보세요.