Eine neue Untersuchung der Europäischen Rundfunkunion (EBU) hat erhebliche Zweifel an der Zuverlässigkeit populärer KI-Chatbots geweckt. Demnach liefern Systeme wie ChatGPT, Claude, Gemini oder Microsoft Copilot in bis zu 40 Prozent ihrer Antworten falsche Informationen – oft in einem Tonfall, der so überzeugend klingt, dass selbst erfahrene Nutzer die Fehler kaum erkennen.
Hohe Fehlerquote bei beliebten Chatbots
Laut der Studie, die 68 öffentlich-rechtliche Rundfunkanstalten aus 56 Ländern umfasst, erfinden viele Systeme regelmäßig angebliche Fakten oder geben falsche Quellen an. Besonders problematisch sind Fragen zu aktuellen Nachrichten, regionalen Ereignissen und komplexen Themen, bei denen mehrere Informationen kombiniert werden müssen.
So erklärte ein Chatbot etwa fälschlich, Papst Franziskus sei bereits verstorben, während ein anderer nicht wusste, dass Schweden Mitglied der NATO ist. Auch politische Ereignisse werden oft falsch dargestellt – etwa wenn Google Gemini die Wiederwahl von Donald Trump als „möglich“ bezeichnet, obwohl sie längst stattgefunden hat.
„Diese Systeme klingen glaubwürdig, auch wenn sie objektiv falsche Aussagen machen“, warnt Peter Posch, Wirtschaftswissenschaftler an der Technischen Universität Dortmund. „Gerade ungeübte Nutzer sind gefährdet, weil sie die Fehler nicht sofort erkennen.“
Fachleute bezeichnen dieses Phänomen als „Halluzination“ – eine Form der Textgenerierung, bei der die KI sinnvolle, aber frei erfundene Inhalte erstellt, die keinerlei reale Grundlage haben.
Mögliche Gefahr für Meinungsbildung und Demokratie
Die Konsequenzen reichen weit über technische Ungenauigkeiten hinaus. Immer mehr Menschen beziehen ihre Informationen direkt von Chatbots – ein Trend, der sich laut Experten zu einem ernsthaften Risiko für den öffentlichen Diskurs und demokratische Prozesse entwickeln könnte.
Falsche KI-Aussagen werden häufig ungeprüft in sozialen Netzwerken geteilt, wodurch sich Desinformationen rasch verbreiten. Schüler und Studierende übernehmen fehlerhafte Inhalte in Referate oder Hausarbeiten, und Bürger könnten politische Entscheidungen auf Basis erfundener Fakten treffen.
Noch gravierender: Viele Nutzer wissen nicht, dass solche Systeme überhaupt Fehler machen können. Obwohl Plattformen wie ChatGPT in ihren Nutzungsbedingungen auf mögliche Unstimmigkeiten hinweisen, liest kaum jemand diese Hinweise. Das Vertrauen in eine objektive, maschinelle Wahrheit bleibt bestehen – ein gefährlicher Irrtum.
Schaden für die Glaubwürdigkeit der Medien
Auch etablierte Nachrichtenhäuser sind betroffen. Chatbots behaupten häufig, ihre Informationen stammten von ARD, ZDF oder der Tagesschau, obwohl diese Medien nie über das angebliche Thema berichtet haben. Damit wird das Vertrauen in seriösen Journalismus untergraben.
Die EBU-Analyse umfasste Hunderte von Testfragen zu Geschichte, Wissenschaft und aktuellen Ereignissen. Je nach Themenbereich schwankte die Fehlerquote zwischen 15 und 40 Prozent – kein einziger getesteter Chatbot lieferte durchgehend korrekte Ergebnisse.
Ein Beispiel: Während ein System korrekte Daten über den Zweiten Weltkrieg liefern konnte, „erfand“ dasselbe Programm wenige Minuten später fiktive Aussagen über Wirtschaftsdaten, die es nie gab.
Warum die Systeme so oft irren
Die Ursache für diese gravierenden Fehler liegt in der Funktionsweise der Technologie. Künstliche Intelligenz versteht keine Inhalte, sondern berechnet lediglich Wahrscheinlichkeiten, welche Wörter sinnvoll aufeinander folgen. Sie erkennt Muster, aber keine Wahrheit.
„KI denkt nicht – sie schätzt nur, was plausibel klingt“, erklären Experten. Ein echtes Verständnis von Fakten oder logischen Zusammenhängen fehlt. Auch das Einbinden externer Datenbanken und das Training mit neuen Modellen kann das Grundproblem bislang nicht vollständig lösen.
Trotz Milliardeninvestitionen der Tech-Konzerne bleiben Halluzinationen eine zentrale Schwachstelle moderner Sprachmodelle. Selbst mit Verbesserungen bei Quellenangaben und sogenannten „Retrieval-Systemen“ treten weiterhin massive Ungenauigkeiten auf.
Was Nutzer beachten sollten
Die Europäische Rundfunkunion fordert deshalb neue Leitlinien für den Umgang mit Chatbots. Wichtige Informationen sollten stets mit verlässlichen Medienquellen überprüft werden. Nutzer sollten wissen, dass KI-generierte Texte nicht automatisch korrekt sind – insbesondere bei politischen Themen, Gesundheitsfragen oder Finanzentscheidungen.
Schulen und Universitäten stehen ebenfalls in der Pflicht, Medienkompetenz zu vermitteln. Lernende müssen verstehen, wie KI funktioniert, wo ihre Grenzen liegen und wie man Falschinformationen erkennen kann.
Die Bundesregierung plant derzeit Aufklärungskampagnen, um die Öffentlichkeit für die Risiken zu sensibilisieren. Doch viele Experten halten diese Bemühungen für verspätet – Millionen Menschen nutzen KI-Tools längst täglich.Bis sich die Systeme verbessern, gilt ein klarer Rat: Chatbots sind nützlich für kreative Aufgaben, Textformulierungen oder Ideensammlungen, doch als verlässliche Informationsquelle eignen sie sich nicht. Wer fundierte Nachrichten sucht, sollte weiterhin auf journalistisch geprüfte Medien setzen, in denen Menschen recherchieren, prüfen und Verantwortung tragen.




