Menü
24matins.de
Navigation : 
  • Nachrichten
    • Gesundheit
    • Politik
    • Wirtschaft
    • Sport
    • Küche
  • Welt
  • Kultur
  • Technik
In diesem Moment : 
  • Gesundheit
  • Divertissement
  • International
  • Tech
  • Unterhaltung

KI-Chatbots: Wie Fehlinformationen unsere Online-Suchen beeinflussen

Technik / Tech / AI
Par 24matins.de,  veröffentlicht am Oktober 24, 2025 um 21:01 Uhr, geändert am Oktober 24, 2025 um 21:01 Uhr.
Technik

ADN

Die Verbreitung von Fehlinformationen durch Chatbots und KI-Assistenten stellt eine wachsende Herausforderung dar. Nutzer stoßen bei ihren Online-Recherchen zunehmend auf unzuverlässige oder irreführende Inhalte, die das Vertrauen in digitale Technologien beeinträchtigen.

TL;DR

  • EBU-Studie: 45 % der KI-Antworten fehlerhaft
  • Quellen und Fakten oft unzuverlässig präsentiert
  • Vorsicht und Nachprüfung bleiben unverzichtbar

Assistenzsysteme im Alltag – und ihre Grenzen

Kaum ein Bereich unseres täglichen Lebens bleibt heute noch von Künstlicher Intelligenz verschont: ChatGPT, Google Gemini oder Microsoft Copilot sind längst mehr als technische Spielereien – sie informieren, filtern, fassen zusammen. Allerdings wirft eine aktuelle Untersuchung der European Broadcasting Union (EBU) ein ernüchterndes Licht auf diese allgegenwärtigen digitalen Helfer: Fast die Hälfte der getesteten Antworten wies gravierende Fehler auf, über 80 % waren in irgendeiner Form problematisch.

Die Ergebnisse: Von fehlerhaften Quellen bis hin zu erfundenen Fakten

Um die Zuverlässigkeit der Systeme zu überprüfen, analysierten die EBU-Forscher mehr als 3.000 Anfragen an mehrere populäre KI-Assistenten – darunter Claude und Perplexity. Dabei traten signifikante Schwächen zutage, insbesondere bei der Angabe von Quellen. Mehrere Faktoren erklären diese alarmierenden Ergebnisse:

  • 31 % der Antworten enthielten falsche oder gar nicht existierende Quellenangaben.
  • 20 % präsentierten gravierende sachliche Fehler – etwa falsch datierte Ereignisse oder fehlerhafte Zitate.

Während beispielsweise Gemini besonders häufig bei der Quellennennung patzte, variierte die Qualität bei Systemen wie ChatGPT oder Claude je nach Version deutlich. Auffällig war außerdem, dass einige Modelle sogar fiktive Artikel aus der Zukunft zitierten – eine absurde Vorstellung, die das Vertrauen weiter untergräbt.

Ein wachsendes Risiko für die Informationskompetenz

Gerade weil nach Angaben des Reuters Institute bereits 15 % der Generation Z Chatbots für Nachrichten nutzen, steht viel auf dem Spiel. Die Verlockung, KI-Antworten ungeprüft zu übernehmen, ist groß – doch viele Systeme kennzeichnen ihre Quellen unzureichend oder vermischen Fakten mit Meinungen. Das kann zu gravierender Desinformation führen, wie ein Praxistest zum „Schuldenobergrenzen-Abkommen“ der USA zeigte: Die Resultate schwankten stark, nur wenige blieben korrekt und nachvollziehbar.

Sorgfalt bleibt Pflicht – auch im KI-Zeitalter

Wie also sollte man mit diesen Werkzeugen umgehen? Wer die Vorteile von KI nutzen will, sollte stets um Quellenangaben bitten, präzise Datumsabfragen formulieren, verschiedene Systeme vergleichen – und nie auf kritisches Hinterfragen verzichten. Letztlich steht weit mehr als individueller Komfort auf dem Spiel: Solange Transparenz und Echtzeit-Prüfbarkeit nicht garantiert sind, bleibt der Rückgriff auf die Primärquelle unverzichtbar – besonders für alle, denen verlässliche Information am Herzen liegt.

Le Récap
  • TL;DR
  • Assistenzsysteme im Alltag – und ihre Grenzen
  • Die Ergebnisse: Von fehlerhaften Quellen bis hin zu erfundenen Fakten
  • Ein wachsendes Risiko für die Informationskompetenz
  • Sorgfalt bleibt Pflicht – auch im KI-Zeitalter
Erfahren Sie mehr
  • Amazon Prime: Rekordstrafe der US-FTC für E-Commerce-Riese
  • ChatGPT Atlas: KI-basierter Webbrowser für intelligente Online-Suche
  • Samsung Galaxy XR: Innovationen in Mixed Reality Technologien
  • Über uns
  • Verwaltung von persönlichen Daten
© 2025 - Alle Rechte der Seiteninhalte vorbehalten 24matins.de