AI 할루시네이션이란 무엇인가요?

AI 할루시네이션은 AI 모델이 생성하는 잘못되거나 오해의 소지가 있는 결과입니다. 이러한 오류는 불충분한 학습 데이터, 모델의 잘못된 가정, 모델 학습에 사용된 데이터의 편향 등 다양한 요인으로 인해 발생할 수 있습니다. AI 할루시네이션은 의료 진단이나 금융 거래와 같은 중요한 결정을 내리는 데 사용되는 AI 시스템에 문제가 될 수 있습니다.

신규 고객에게는 최대 $300의 무료 크레딧이 제공되어 Vertex AI 및 기타 Google Cloud 제품을 사용해 볼 수 있습니다. 

AI 할루시네이션은 어떻게 발생할까요?

AI 모델은 데이터로 학습되며 데이터에서 패턴을 발견하여 예측하는 방법을 학습합니다. 그러나 이러한 예측 정확성은 학습 데이터의 품질과 완전성에 따라 달라지는 경우가 많습니다. 학습 데이터가 불완전하거나 편향되거나 결함이 있으면 AI 모델에서 잘못된 패턴을 학습하여 부정확한 예측이나 할루시네이션이 발생할 수 있습니다.

예를 들어 의료 이미지의 데이터 세트로 학습된 AI 모델은 암세포를 식별하는 방법을 학습할 수 있습니다. 그러나 데이터 세트에 정상 조직의 이미지가 포함되어 있지 않으면 정상 조직이 암에 걸렸다고 AI 모델이 잘못 예측할 수 있습니다. 

결함이 있는 학습 데이터는 AI 할루시네이션이 발생할 수 있는 이유 중 하나에 불과합니다. 또 다른 요인은 적절한 그라운딩 부족입니다. AI 모델은 실제 지식, 물리적 속성 또는 사실에 기반한 정보를 정확하게 이해하는 데 어려움을 겪을 수 있습니다. 이러한 그라운딩의 결여로 인해 모델이 타당해 보이지만 실제로는 부정확하거나 관련이 없거나 잘못된 출력을 생성할 수 있습니다. 심지어 링크가 존재하지 않았던 웹페이지로 연결되도록 조작할 수도 있습니다.

예를 들어 뉴스 기사의 요약을 생성하도록 설계된 AI 모델이 원본 기사에 없는 세부정보를 포함하거나 정보를 완전히 조작하는 요약을 생성할 수 있습니다. 

AI 할루시네이션의 잠재적 원인을 파악하는 것은 AI 모델을 사용하는 개발자에게 중요합니다. 개발자는 학습 데이터의 품질과 완전성을 신중하게 고려하고 적절한 그라운딩을 보장하면 AI 할루시네이션 위험을 최소화하고 모델의 정확성과 신뢰성을 보장할 수 있습니다.

AI 할루시네이션 예시

AI 할루시네이션은 다양한 형태로 나타날 수 있습니다. 몇 가지 일반적인 예시는 다음과 같습니다.

  • 잘못된 예측: AI 모델에서 발생 가능성이 낮은 이벤트가 발생할 것이라고 잘못 예측할 수 있습니다. 예를 들어 날씨 예측에 사용되는 AI 모델이 일기 예보와 다르게 내일 비가 올 것이라고 예측할 수 있습니다.
  • 거짓양성: AI 모델을 사용할 때 AI 모델이 위협이 아닌 것을 위협으로 식별할 수 있습니다. 예를 들어 사기를 감지하는 데 사용되는 AI 모델이 사기가 아닌 거래를 사기로 신고할 수 있습니다.
  • 거짓음성: AI 모델이 위협을 정확하게 식별하지 못할 수 있습니다. 예를 들어 암을 감지하는 데 사용되는 AI 모델이 암 종양을 식별하지 못할 수 있습니다.

AI 할루시네이션을 방지하는 방법

AI 할루시네이션을 방지하기 위해 취할 수 있는 몇 가지 조치는 다음과 같습니다.

가능한 결과 제한

AI 모델을 학습시킬 때는 모델이 예측할 수 있는 가능한 결과의 수를 제한하는 것이 중요합니다. 이를 위해 '정규화'라는 기법을 사용할 수 있습니다. 정규화는 너무 극단적인 예측을 하는 경우 모델에 페널티를 줍니다. 이렇게 하면 모델이 학습 데이터 과적합을 통해 잘못된 예측을 하는 것을 방지할 수 있습니다.

관련성이 높고 구체적인 소스로만 AI 학습

AI 모델을 학습시킬 때는 모델이 수행할 태스크와 관련된 데이터를 사용하는 것이 중요합니다. 예를 들어 암을 식별하도록 AI 모델을 학습시키는 경우 의료 이미지 데이터 세트를 사용해야 합니다. 태스크와 관련이 없는 데이터를 사용하면 AI 모델이 부정확한 예측을 할 수 있습니다.

AI가 따를 템플릿 만들기

AI 모델을 학습시킬 때 모델이 따를 템플릿을 만들면 유용합니다. 이 템플릿은 예측 수행 시 모델을 가이드할 수 있습니다. 예를 들어 텍스트를 작성하도록 AI 모델을 학습시키는 경우 다음 요소가 포함된 템플릿을 만들 수 있습니다.

  • 제목
  • 서론
  • 본론
  • 결론

AI에게 원하는 것과 원하지 않는 것 알려주기

AI 모델을 사용할 때는 원하는 것과 원하지 않는 것을 모델에 알리는 것이 중요합니다. 이를 위해 모델에 피드백을 제공할 수 있습니다. 예를 들어 AI 모델을 사용해 텍스트를 생성하는 경우 모델에 원하는 텍스트와 원하지 않는 텍스트를 지정하여 피드백을 제공할 수 있습니다. 이렇게 하면 모델이 사용자가 찾고 있는 것을 학습하는 데 도움이 됩니다.

Google Cloud로 비즈니스 문제 해결

신규 고객에게는 Google Cloud에서 사용할 수 있는 $300의 무료 크레딧이 제공됩니다.
Google Cloud 영업 전문가에게 고유한 문제에 대해 자세히 논의해 보세요.

Google Cloud가 할루시네이션을 방지하는 데 도움을 줄 수 있는 방법

Google Cloud를 사용하여 AI 할루시네이션을 방지하는 방법을 알아보세요. 

다음 단계 수행

$300의 무료 크레딧과 20여 개의 항상 무료 제품으로 Google Cloud에서 빌드하세요.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
콘솔
Google Cloud