Hallucination (KI)

Definition

Als Hallucination wird im Bereich Künstliche Intelligenz das Phänomen bezeichnet, dass ein Sprachmodell (LLM) Inhalte erzeugt, die zwar sprachlich korrekt und überzeugend klingen, jedoch faktisch falsch, nicht belegbar oder komplett erfunden sind. Ursache ist die statistische Natur der Textgenerierung, die keine Garantie für Wahrheit oder Quellenangaben liefert.

Beispiele

  • Eine KI erfindet Studien oder Quellen, die nicht existieren.
  • Falsche Fakten über Unternehmen, Produkte oder Personen.
  • Generierung von Daten oder Zahlen ohne reale Grundlage.

Vorteile (im Bewusstsein über Hallucinations):

  • Kritische Überprüfung und Qualitätssicherung von KI-Ausgaben.
  • Schulung der Mitarbeitenden im Umgang mit KI-generierten Texten.
  • Vermeidung von Reputationsschäden durch falsche Informationen.