Definition Was ist KI-Halluzination?

Von Hagedorn 2 min Lesedauer

Anbieter zum Thema

Als KI-Halluzination wird die Erzeugung erfundener Resultate durch einen Chatbot wie ChatGPT oder Google Bard bezeichnet. Sie können den tatsächlichen Fakten oder dem logischen Zusammenhang der Anfrage widersprechen.

Grundlagenwissen zum IT-Business(Bild:  © adiruch na chiangmai - Fotolia.com)
Grundlagenwissen zum IT-Business
(Bild: © adiruch na chiangmai - Fotolia.com)

Die Bezeichnung als KI-Halluzination kann dabei durchaus in die Irre führen, da sie impliziert, dass dieses Phänomen aufgrund einer Wahrnehmungsstörung der Künstlichen Intelligenz entsteht. Tatsächlich stehen jedoch hinter Chatbots sogenannte Large Language Models (LLM). Sie haben weder eine Wahrnehmung noch verfügen sie über ein Wissen. Ihre Ergebnisse beruhen vielmehr auf einer Statistik, aus der sie Texte, Bilder, Videos oder Audios generieren. Dem zugrunde liegt ein Komplex aus Trainingsdaten.

Ursachen von KI-Halluzinationen

Falls die verwendeten Trainingsdaten fehlerhafte, verzerrte, veraltete oder widersprüchliche Informationen enthalten, kann das zur Generierung eines inhaltlich oder logisch falschen Ergebnisses führen. Eine KI-Halluzination kann ebenfalls Folge einer falschen Zuordnung innerhalb der Datenquelle sein. Weitere Gründe können Defizite bei der Programmierung oder bei den Identifikationsmöglichkeiten bestimmter Textabsichten wie Satire oder Ironie sein.

Wie entstehen KI-Halluzinationen?

Zu den Hauptleistungsmerkmalen einer KI zählt, dass sie Texte, Bilder, Videos oder Audios eigenständig schaffen kann. Bieten indes die Trainingsdaten aus einer oder mehreren der oben genannten Ursachen dazu Anlass, kann es passieren, dass die KI aus der Analyse ihrer Datengrundlage eigene, erfundene Informationen hinzufügt. Damit stellt sie Stimmigkeit her oder füllt aufgrund der bereits analysierten, nicht unbedingt korrekten beziehungsweise vollständigen Informationen Daten auf. Daher wird die KI-Halluzination alternativ auch Konfabulation genannt.

Gefahren durch KI-Halluzinationen

Als besonders problematisch für den Nutzer stellt sich dar, dass eine KI-Halluzination vom Chatbot ebenso eloquent und überzeugend vorgetragen werden kann, wie eine wahrheitsgemäße Aussage. Es besteht also das Risiko, dass mit den KI-Halluzinationen Falschinformationen übernommen und schlimmstenfalls viral verbreitet werden.

Beispiele für KI-Halluzinationen

Typische Beispiele für eine KI-Halluzination sind:

Aussagen, die Behauptungen aufstellen, welche den Fakten widersprechen. So berichtete beispielsweise ChatGPT vom Magnetfeld Schwarzer Löcher, die allerdings kein Magnetfeld haben.

Aussagen, die nicht existierende Fakten darstellen. Dabei kann es sich um die Biografie sowie die Werke und Auszeichnungen eines erfundenen Schriftstellers handeln oder auch um das Hotel eines Weinguts, das es nicht gibt.

Widersprüchliche oder nicht zur Anfrage passende Aussagen, die allerdings oft leicht identifizierbar sind.

(ID:49887873)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung