Warum Sprachmodelle halluzinieren
Halluzinationen sind keine behebbare Fehlfunktion, sondern eine mathematische Konsequenz des generativen Prinzips. Sprachmodelle berechnen die wahrscheinlichste Fortsetzung — nicht die faktisch richtige. Wenn ein Modell zu einer Frage keine zuverlässige Information in seinen Trainingsdaten hat, erzeugt es dennoch eine plausibel klingende Antwort. Eine systematische Übersicht zu diesem Phänomen bieten Ji et al. in „Survey of Hallucination in Natural Language Generation”.
Halluzinationen treten besonders häufig bei spezifischen Fakten auf: Zahlen, Datumsangaben, Normen, Personennamen. Gerade in industriellen Kontexten, in denen Präzision entscheidend ist, stellt das ein ernstes Risiko dar.
Gegenmaßnahmen
Die wirksamste Gegenmaßnahme ist Retrieval-Augmented Generation (RAG). Das Sprachmodell antwortet nicht aus dem Gedächtnis, sondern auf Grundlage konkreter Dokumente aus der Unternehmenswissensbasis. Jede Antwort ist mit Quellverweisen versehen — der Nutzer kann die Aussage anhand des Originaldokuments überprüfen.
Ergänzend helfen präzise System-Prompts, die das Modell anweisen, nur auf Basis bereitgestellter Quellen zu antworten und Unsicherheit offen zu benennen, statt eine Antwort zu konstruieren.