Was sind KI-Halluzinationen?

KI-Halluzinationen sind falsche oder irreführende Ergebnisse, die von KI-Modellen generiert werden. Diese Fehler können durch eine Vielzahl von Faktoren verursacht werden, darunter unzureichende Trainingsdaten, falsche Annahmen des Modells oder Bias in den Daten, die zum Trainieren des Modells verwendet werden. KI-Halluzinationen können ein Problem für KI-Systeme sein, die für wichtige Entscheidungen verwendet werden, z. B. bei medizinischen Diagnosen oder im Finanzhandel.

Neukunden erhalten ein Guthaben von bis zu 300 $, um Vertex AI und andere Google Cloud-Produkte auszuprobieren. 

Wie kommt es zu KI-Halluzinationen?

KI-Modelle werden mit Daten trainiert und lernen anhand von Datenmustern, Vorhersagen zu treffen. Die Genauigkeit dieser Vorhersagen hängt jedoch häufig von der Qualität und Vollständigkeit der Trainingsdaten ab. Wenn die Trainingsdaten unvollständig, verzerrt oder anderweitig fehlerhaft sind, kann das KI-Modell falsche Muster lernen, was zu ungenauen Vorhersagen oder KI-Halluzinationen führt.

Beispielsweise kann ein KI-Modell, das mit einem Dataset medizinischer Bilder trainiert wurde, Krebszellen erkennen. Wenn das Dataset jedoch keine Bilder von gesundem Gewebe enthält, kann das KI-Modell fälschlicherweise prognostizieren, dass gesundes Gewebe krebsartig ist.

Fehlerhafte Trainingsdaten sind nur einer der Gründe, warum KI-Halluzinationen auftreten können. Ein weiterer Faktor, der dazu beitragen kann, ist mangelnde Fundierung. Ein KI-Modell kann Probleme beim erfassen von Faktenwissen, physischen Eigenschaften oder Sachinformationen haben. Diese fehlende Fundierung kann dazu führen, dass das Modell Ausgaben generiert, die zwar plausibel erscheinen, aber sachlich falsch, irrelevant oder unsinnig sind. Dies kann sich auch auf die Herstellung von Links zu Webseiten erstrecken, die es nie gegeben hat.

Ein Beispiel hierfür wäre ein KI-Modell, das Zusammenfassungen von Nachrichtenartikeln generiert und dabei eine Zusammenfassung mit Details erstellt, die im ursprünglichen Artikel nicht enthalten sind, oder sogar Informationen vollständig fingiert.

Für Entwickler, die mit KI-Modellen arbeiten, ist es wichtig, diese möglichen Ursachen von KI-Halluzinationen zu verstehen. Durch sorgfältige Abwägung der Qualität und Vollständigkeit der Trainingsdaten sowie die richtige Fundierung können Entwickler das Risiko von KI-Halluzinationen minimieren und die Genauigkeit und Zuverlässigkeit ihrer Modelle gewährleisten.

Beispiele für KI-Halluzinationen

KI-Halluzinationen können viele verschiedene Formen annehmen. Hier einige Beispiele:

  • Falsche Vorhersagen: Ein KI-Modell kann vorhersagen, dass ein Ereignis eintritt, wenn es unwahrscheinlich ist. Ein KI-Modell, mit dem das Wetter vorhergesagt wird, kann beispielsweise vorhersagen, dass es morgen regnen wird, wenn es keinen Ausblick auf Regen gibt.
  • Falsch positive Ergebnisse: Bei der Arbeit mit einem KI-Modell kann etwas als Bedrohung erkannt werden, obwohl dies nicht der Fall ist. Beispielsweise kann ein KI-Modell, das zur Erkennung von Betrug verwendet wird, eine Transaktion als betrügerisch kennzeichnen, obwohl dies nicht der Fall ist.
  • Falsch negative Ergebnisse: Ein KI-Modell erkennt möglicherweise etwas nicht als Bedrohung, obwohl dies der Fall ist. Ein KI-Modell, das zur Erkennung von Krebs verwendet wird, erkennt beispielsweise einen Krebstumor nicht.

KI-Halluzinationen verhindern

Es gibt eine Reihe von Maßnahmen, mit denen KI-Halluzinationen verhindert werden können:

Mögliche Ergebnisse begrenzen

Beim Training eines KI-Modells ist es wichtig, die Anzahl der möglichen Ergebnisse zu begrenzen, die das Modell vorhersagen kann. Dies kann mithilfe einer Technik namens „Regularisierung“ geschehen. Bei der Regularisierung wird das Modell bei zu extremen Vorhersagen bestraft. Dadurch wird verhindert, dass das Modell die Trainingsdaten übermäßig anpasst und dadurch falsche Vorhersagen trifft.

KI nur mit relevanten und spezifischen Quellen trainieren

Beim Trainieren eines KI-Modells ist es wichtig, Daten zu verwenden, die für die Aufgabe, die das Modell ausführt, relevant sind. Wenn Sie beispielsweise ein KI-Modell zur Identifizierung von Krebs trainieren, sollten Sie ein Dataset mit medizinischen Bildern verwenden. Die Verwendung von Daten, die für die Aufgabe nicht relevant sind, kann dazu führen, dass das KI-Modell falsche Vorhersagen trifft.

Eine Vorlage für Ihre KI erstellen

Beim Trainieren eines KI-Modells ist es hilfreich, eine Vorlage für das Modell zu erstellen. Diese Vorlage kann das Modell beim Treffen von Vorhersagen unterstützen. Wenn Sie beispielsweise ein KI-Modell trainieren, um Text zu schreiben, können Sie eine Vorlage mit den folgenden Elementen erstellen:

  • Titel
  • Einführung
  • Textkörper
  • Fazit

Sie können Ihrer KI mitteilen, was Sie wollen und was nicht

Wenn Sie ein KI-Modell verwenden, ist es wichtig, dem Modell mitzuteilen, was Sie möchten und was nicht. Geben Sie dazu Feedback an das Modell. Wenn Sie beispielsweise ein KI-Modell zum Generieren von Text verwenden, können Sie dem Modell Feedback geben, indem Sie ihm mitteilen, welcher Text Ihnen gefällt und welcher nicht. So weiß das Modell, wonach Sie suchen.

Meistern Sie Ihre geschäftlichen Herausforderungen mit Google Cloud

Neukunden erhalten ein Guthaben im Wert von 300 $ für Google Cloud.
Sprechen Sie mit einem Google Cloud-Vertriebsexperten, um Ihre besonderen Herausforderungen im Detail zu besprechen.

Wie Google Cloud dabei helfen kann, KI-Halluzinationen zu verhindern

Hier erfahren Sie, wie Sie mit Google Cloud KI-Halluzinationen verhindern können: 

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud