KI-Chatbots: Wie Fehlinformationen unsere Online-Suchen beeinflussen

ADN
Die Verbreitung von Fehlinformationen durch Chatbots und KI-Assistenten stellt eine wachsende Herausforderung dar. Nutzer stoßen bei ihren Online-Recherchen zunehmend auf unzuverlässige oder irreführende Inhalte, die das Vertrauen in digitale Technologien beeinträchtigen.
TL;DR
- EBU-Studie: 45 % der KI-Antworten fehlerhaft
- Quellen und Fakten oft unzuverlässig präsentiert
- Vorsicht und Nachprüfung bleiben unverzichtbar
Assistenzsysteme im Alltag – und ihre Grenzen
Kaum ein Bereich unseres täglichen Lebens bleibt heute noch von Künstlicher Intelligenz verschont: ChatGPT, Google Gemini oder Microsoft Copilot sind längst mehr als technische Spielereien – sie informieren, filtern, fassen zusammen. Allerdings wirft eine aktuelle Untersuchung der European Broadcasting Union (EBU) ein ernüchterndes Licht auf diese allgegenwärtigen digitalen Helfer: Fast die Hälfte der getesteten Antworten wies gravierende Fehler auf, über 80 % waren in irgendeiner Form problematisch.
Die Ergebnisse: Von fehlerhaften Quellen bis hin zu erfundenen Fakten
Um die Zuverlässigkeit der Systeme zu überprüfen, analysierten die EBU-Forscher mehr als 3.000 Anfragen an mehrere populäre KI-Assistenten – darunter Claude und Perplexity. Dabei traten signifikante Schwächen zutage, insbesondere bei der Angabe von Quellen. Mehrere Faktoren erklären diese alarmierenden Ergebnisse:
- 31 % der Antworten enthielten falsche oder gar nicht existierende Quellenangaben.
- 20 % präsentierten gravierende sachliche Fehler – etwa falsch datierte Ereignisse oder fehlerhafte Zitate.
Während beispielsweise Gemini besonders häufig bei der Quellennennung patzte, variierte die Qualität bei Systemen wie ChatGPT oder Claude je nach Version deutlich. Auffällig war außerdem, dass einige Modelle sogar fiktive Artikel aus der Zukunft zitierten – eine absurde Vorstellung, die das Vertrauen weiter untergräbt.
Ein wachsendes Risiko für die Informationskompetenz
Gerade weil nach Angaben des Reuters Institute bereits 15 % der Generation Z Chatbots für Nachrichten nutzen, steht viel auf dem Spiel. Die Verlockung, KI-Antworten ungeprüft zu übernehmen, ist groß – doch viele Systeme kennzeichnen ihre Quellen unzureichend oder vermischen Fakten mit Meinungen. Das kann zu gravierender Desinformation führen, wie ein Praxistest zum „Schuldenobergrenzen-Abkommen“ der USA zeigte: Die Resultate schwankten stark, nur wenige blieben korrekt und nachvollziehbar.
Sorgfalt bleibt Pflicht – auch im KI-Zeitalter
Wie also sollte man mit diesen Werkzeugen umgehen? Wer die Vorteile von KI nutzen will, sollte stets um Quellenangaben bitten, präzise Datumsabfragen formulieren, verschiedene Systeme vergleichen – und nie auf kritisches Hinterfragen verzichten. Letztlich steht weit mehr als individueller Komfort auf dem Spiel: Solange Transparenz und Echtzeit-Prüfbarkeit nicht garantiert sind, bleibt der Rückgriff auf die Primärquelle unverzichtbar – besonders für alle, denen verlässliche Information am Herzen liegt.