Halluzinationen und Fehlinformation verringern

Viele Nutzerinnen und Nutzer von KI Angeboten haben sicherlich schon diese Erfahrung gemacht - wird nach bestimmtem Wissen gefragt, hat die KI immer eine überzeugende Antwort parat. „Weiß ich nicht“, gehört nicht in ihr Repertoire. Fehlinformationen können sich leicht auf diese Weise verbreiten. Da mittlerweile selbst bei einer normalen Suchanfrage sofort die KI Zusammenfassung aufploppt, sollten wir dieses Problem in den Blick nehmen. Können wir der KI beibringen ehrlicher zu sein und Wissenslücken zuzugeben?
Große Hoffnung machten die neuen reasoning-Modelle wie z. B. GPT o3 oder o4-mini, denen man zutraute besser „nachzudenken“. Doch es verhält sich genau andersherum. Verschiedene Quellen im Netz zitieren die New York Times mit einem internen Bericht von Open AI, der verdeutlicht, dass die Modelle viele Fakten erfinden und eine höhere Quote von Halluzinationen aufweisen als die älteren Modelle. Bei einem Test zu Personenwissen erzeugte o3 etwa 33 Prozent, o4-mini sogar 48 Prozent Fehlinformationen. Wurde nach Wissen gefragt, erzeugte 4o-mini zum Teil bis zu 79 % halluzinierte Informationen.
Neben den Halluzinationen sind es besonders Fehlinformationen, die bewusst gestreut werden. So geben Chatbots trotz vorhandener Sicherheitsmechanismen oft auch falsche Informationen weiter obwohl diese bereits widerlegt und aufgedeckt sind (vgl. Studie von NewsGuard).
Hinzu kommt, dass seriöse Nachrichtenseiten im hohen Maße den Zugang zu ihren Informationen blocken bzw. diese nur gegen Bezahlung zur Verfügung stellen. Chatbots greifen daher vermutlich eher auf weniger vertrauenswürdige Quellen zurück. Newsguard schreibt dazu: „Desinformationswebseiten aus Ländern wie Russland, China und dem Iran, ebenso wie Webseiten mit verschwörungstheoretischen Inhalten und solche, die Gesundheitsmythen verbreiten oder mit unbewiesenen Heilmitteln werben, bieten ihre Inhalte bereitwillig an.“
Was kann ich tun?
- Im Prompt nicht nach Falschinformationen fragen oder diese durch Begriffe noch „triggern“.
- Konkrete ausführliche Anfragen stellen, Erwartungshorizont formulieren, keine allgemeinen Informationen anfragen.
- Im Prompt angeben, dass öffentliche belegbare Quellen genutzt werden sollen.
- Faktenbasierte korrekte Antworten erfragen.
- Belege zu Datenbasis und Quellen einfordern.
- Gegenprüfen mit anderem Chatbot oder besser noch mit Perplexitiy, dabei auf sachliche Fehler und problematische Aussagen prüfen lassen.
KI übernimmt zunehmend die Aufgabe von Suchmaschinen. Da bei einer Suchanfrage heute zunächst die KI antwortet, verwischt der Unterschied für Lernenden noch weiter. Sie reflektieren dabei selten den Unterschied.
Lernende (und auch die KI) benötigen Anleitung! Genaues Prompten, kritische Reflexion der Ergebnisse und ein Gegencheck lassen das Risiko für Halluzinationen und Falschinformationen verringern. Fake News müssen ein großes Thema im Rahmen der Medienerziehung sein, da sie gezielt eingesetzt und verbreitet werden, aber auch allein durch die Machart der KI entstehen.