Google Cloud의 Duet AI와 책임감 있는 AI

이 문서에서는 생성형 AI와 관련된 기능, 제한사항, 위험과 관련해 Duet AI를 어떻게 설계했는지 설명합니다.

대규모 언어 모델의 기능 및 위험

대규모 언어 모델(LLM)은 다음과 같은 여러 유용한 태스크를 수행할 수 있습니다.

  • 언어를 번역합니다.
  • 텍스트를 요약합니다.
  • 코드를 생성하고 창의적 글쓰기를 돕습니다.
  • 챗봇 및 가상 어시스턴트를 지원합니다.
  • 검색엔진과 추천 시스템을 보완합니다.

한편 LLM은 발전 중인 기술이기 때문에 악용, 오용, 의도치 않거나 예측하지 못한 결과가 발생할 수 있습니다.

LLM은 불쾌감을 주거나 민감하지 않거나 사실에 맞지 않는 텍스트를 포함하여 예상치 못한 출력을 생성할 수 있습니다. LLM은 매우 다양한 용도로 사용되기 때문에 발생할 수 있는 의도치 않거나 예측하지 못한 출력의 유형을 정확히 예측하기가 어렵습니다.

이러한 위험과 복잡성을 고려해 Google Cloud의 Duet AI는 Google의 AI 원칙을 염두에 두고 설계되었습니다. 그러나 사용자가 안전하고 책임감 있게 작업하기 위해서는 몇 가지 기술 제한사항을 이해하는 것이 중요합니다.

Google Cloud의 Duet AI 제한사항

Google Cloud에서 Duet AI를 사용할 때 발생할 수 있는 몇 가지 제한사항은 다음과 같습니다(이에 국한되지 않음).

  • 특이한 케이스. 특이한 케이스는 학습 데이터에 잘 표현되지 않는 일반적이지 않거나 드물거나 예외적인 상황을 나타냅니다. 이러한 케이스로 인해 모델 과신, 잘못된 컨텍스트 해석, 부적절한 출력 등 Duet AI 출력이 제한될 수 있습니다.

  • 모델 할루시네이션, 근거, 사실성. Google Cloud의 Duet AI에 실제 지식, 물리적 속성 또는 정확한 이해에 대한 근거와 사실성이 부족할 수 있습니다. 이러한 제한사항으로 인해 모델 할루시네이션이 발생할 수 있습니다. 모델 할루시네이션이 발생할 경우 Duet AI가 그럴듯하게 들리지만, 실제로는 잘못되었거나 관련이 없거나 부적절하거나 무의미한 출력을 생성할 수 있습니다. 또한 존재하지 않거나 존재한 적 없는 웹페이지에 대한 링크를 조작할 수도 있습니다. 자세한 내용은 보다 효과적인 Duet AI 프롬프트 작성을 참조하세요.

  • 데이터 품질 및 조정. Duet AI에 입력되는 프롬프트 데이터의 품질, 정확성, 편향은 성능에 상당한 영향을 미칠 수 있습니다. 사용자가 부정확하거나 잘못된 프롬프트를 입력하면 Duet AI가 최적이 아니거나 거짓인 응답을 반환할 수 있습니다.

  • 편향 증폭. 언어 모델이 학습 데이터의 기존 편향을 의도치 않게 증폭시켜 사회적 편견과 특정 그룹의 불공평한 대우를 더욱 강화하는 결과가 발생할 수 있습니다.

  • 언어 품질. Duet AI는 평가 기준이 되는 벤치마크에 관한 많은 다국어 기능을 제공하지만 대부분의 벤치마크(모든 공정성 평가 포함)가 미국 영어를 사용합니다.

    언어 모델은 사용자마다 일관성 없는 서비스 품질을 제공할 수 있습니다. 예를 들어 학습 데이터의 과소 표현으로 인해 텍스트 생성이 일부 언어나 언어 다양성에 효과적이지 않을 수 있습니다. 영어가 아닌 언어나 표현이 적은 영어와 유사한 언어의 경우 성능이 저하될 수 있습니다.

  • 공정성 벤치마크 및 하위 그룹. Google 연구팀의 Duet AI에 대한 공정성 분석에서는 다양한 잠재적 위험을 철저하게 설명하지 않습니다. 예를 들어 성별, 인종, 민족, 종교 축에 따른 편향에 초점을 맞추지만 미국 영어 데이터와 모델 출력에 대한 분석만 수행합니다.

  • 제한된 분야 전문성. Duet AI는 Google Cloud 기술을 학습했지만, 고도로 전문화되거나 기술적인 주제에 대한 정확하고 자세한 응답을 제공하는 데 필요한 깊이 있는 지식이 부족하여 피상적이거나 잘못된 정보를 전달할 수 있습니다.

    Google Cloud 콘솔에서 Duet AI 창을 사용하는 경우 Duet AI는 특정 환경의 컨텍스트를 인식하지 못하므로 '마지막으로 VM을 만든 때가 언제인가요?'와 같은 질문에는 답할 수 없습니다.

    경우에 따라 Duet AI는 컨텍스트별 응답을 받기 위해 컨텍스트의 특정 세그먼트를 모델에 보냅니다. 예를 들어 Error Reporting 서비스 페이지에서 문제 해결 제안 버튼을 클릭하는 경우입니다.

Duet AI 안전 및 유해성 필터링

Google Cloud의 Duet AI 프롬프트와 응답은 각 사용 사례에 적용되는 포괄적인 보안 속성 목록과 대조해 확인됩니다. 이러한 안전 속성은 서비스이용 정책을 위반하는 콘텐츠를 필터링하는 것을 목표로 합니다. 출력이 유해한 것으로 간주되면 응답이 차단됩니다.

다음 단계