Montag, 27 Okt. 2025
  • Mein Feed
  • Meine Speicherungen
Abonnieren
Aktienfinancial.de
  • Startseite
  • Deutschland
  • Europa
  • International
  • Politik
  • Unternehmen
  • Wirtschaft
  • Technik
  • Umwelt
Font ResizerAa
Aktienfinancial.deAktienfinancial.de
  • Meine Speicherungen
  • Mein Feed
Suchen
  • Startseite
  • Deutschland
  • Europa
  • International
  • Politik
  • Unternehmen
  • Wirtschaft
  • Technik
  • Umwelt
Have an existing account? Sign In
Folgen Sie uns
© RMK Marketing Inc. Alle Rechte vorbehalten.
InternationalTechnikUnternehmen

Studie warnt: Künstliche Intelligenz erfindet Fakten

Susanne Jung
Letzte Aktualisierung: 27. Oktober 2025 15:45
Susanne Jung
studie-warnt-künstliche-intelligenz-erfindet-fakten

Eine neue Untersuchung der Europäischen Rundfunkunion (EBU) hat erhebliche Zweifel an der Zuverlässigkeit populärer KI-Chatbots geweckt. Demnach liefern Systeme wie ChatGPT, Claude, Gemini oder Microsoft Copilot in bis zu 40 Prozent ihrer Antworten falsche Informationen – oft in einem Tonfall, der so überzeugend klingt, dass selbst erfahrene Nutzer die Fehler kaum erkennen.

Hohe Fehlerquote bei beliebten Chatbots

Laut der Studie, die 68 öffentlich-rechtliche Rundfunkanstalten aus 56 Ländern umfasst, erfinden viele Systeme regelmäßig angebliche Fakten oder geben falsche Quellen an. Besonders problematisch sind Fragen zu aktuellen Nachrichten, regionalen Ereignissen und komplexen Themen, bei denen mehrere Informationen kombiniert werden müssen.

So erklärte ein Chatbot etwa fälschlich, Papst Franziskus sei bereits verstorben, während ein anderer nicht wusste, dass Schweden Mitglied der NATO ist. Auch politische Ereignisse werden oft falsch dargestellt – etwa wenn Google Gemini die Wiederwahl von Donald Trump als „möglich“ bezeichnet, obwohl sie längst stattgefunden hat.

„Diese Systeme klingen glaubwürdig, auch wenn sie objektiv falsche Aussagen machen“, warnt Peter Posch, Wirtschaftswissenschaftler an der Technischen Universität Dortmund. „Gerade ungeübte Nutzer sind gefährdet, weil sie die Fehler nicht sofort erkennen.“

Fachleute bezeichnen dieses Phänomen als „Halluzination“ – eine Form der Textgenerierung, bei der die KI sinnvolle, aber frei erfundene Inhalte erstellt, die keinerlei reale Grundlage haben.

Mögliche Gefahr für Meinungsbildung und Demokratie

Die Konsequenzen reichen weit über technische Ungenauigkeiten hinaus. Immer mehr Menschen beziehen ihre Informationen direkt von Chatbots – ein Trend, der sich laut Experten zu einem ernsthaften Risiko für den öffentlichen Diskurs und demokratische Prozesse entwickeln könnte.

Falsche KI-Aussagen werden häufig ungeprüft in sozialen Netzwerken geteilt, wodurch sich Desinformationen rasch verbreiten. Schüler und Studierende übernehmen fehlerhafte Inhalte in Referate oder Hausarbeiten, und Bürger könnten politische Entscheidungen auf Basis erfundener Fakten treffen.

Noch gravierender: Viele Nutzer wissen nicht, dass solche Systeme überhaupt Fehler machen können. Obwohl Plattformen wie ChatGPT in ihren Nutzungsbedingungen auf mögliche Unstimmigkeiten hinweisen, liest kaum jemand diese Hinweise. Das Vertrauen in eine objektive, maschinelle Wahrheit bleibt bestehen – ein gefährlicher Irrtum.

Schaden für die Glaubwürdigkeit der Medien

Auch etablierte Nachrichtenhäuser sind betroffen. Chatbots behaupten häufig, ihre Informationen stammten von ARD, ZDF oder der Tagesschau, obwohl diese Medien nie über das angebliche Thema berichtet haben. Damit wird das Vertrauen in seriösen Journalismus untergraben.

Die EBU-Analyse umfasste Hunderte von Testfragen zu Geschichte, Wissenschaft und aktuellen Ereignissen. Je nach Themenbereich schwankte die Fehlerquote zwischen 15 und 40 Prozent – kein einziger getesteter Chatbot lieferte durchgehend korrekte Ergebnisse.

Ein Beispiel: Während ein System korrekte Daten über den Zweiten Weltkrieg liefern konnte, „erfand“ dasselbe Programm wenige Minuten später fiktive Aussagen über Wirtschaftsdaten, die es nie gab.

Warum die Systeme so oft irren

Die Ursache für diese gravierenden Fehler liegt in der Funktionsweise der Technologie. Künstliche Intelligenz versteht keine Inhalte, sondern berechnet lediglich Wahrscheinlichkeiten, welche Wörter sinnvoll aufeinander folgen. Sie erkennt Muster, aber keine Wahrheit.

„KI denkt nicht – sie schätzt nur, was plausibel klingt“, erklären Experten. Ein echtes Verständnis von Fakten oder logischen Zusammenhängen fehlt. Auch das Einbinden externer Datenbanken und das Training mit neuen Modellen kann das Grundproblem bislang nicht vollständig lösen.

Trotz Milliardeninvestitionen der Tech-Konzerne bleiben Halluzinationen eine zentrale Schwachstelle moderner Sprachmodelle. Selbst mit Verbesserungen bei Quellenangaben und sogenannten „Retrieval-Systemen“ treten weiterhin massive Ungenauigkeiten auf.

Was Nutzer beachten sollten

Die Europäische Rundfunkunion fordert deshalb neue Leitlinien für den Umgang mit Chatbots. Wichtige Informationen sollten stets mit verlässlichen Medienquellen überprüft werden. Nutzer sollten wissen, dass KI-generierte Texte nicht automatisch korrekt sind – insbesondere bei politischen Themen, Gesundheitsfragen oder Finanzentscheidungen.

Schulen und Universitäten stehen ebenfalls in der Pflicht, Medienkompetenz zu vermitteln. Lernende müssen verstehen, wie KI funktioniert, wo ihre Grenzen liegen und wie man Falschinformationen erkennen kann.

Die Bundesregierung plant derzeit Aufklärungskampagnen, um die Öffentlichkeit für die Risiken zu sensibilisieren. Doch viele Experten halten diese Bemühungen für verspätet – Millionen Menschen nutzen KI-Tools längst täglich.Bis sich die Systeme verbessern, gilt ein klarer Rat: Chatbots sind nützlich für kreative Aufgaben, Textformulierungen oder Ideensammlungen, doch als verlässliche Informationsquelle eignen sie sich nicht. Wer fundierte Nachrichten sucht, sollte weiterhin auf journalistisch geprüfte Medien setzen, in denen Menschen recherchieren, prüfen und Verantwortung tragen.

Stichwörter: Chatbots, ChatGPT, Desinformation, EBU, Faktenprüfung, Falschinformationen, Halluzination, KI, Künstliche Intelligenz, Medienkompetenz
Vorheriger Beitrag eu-droht-meta-und-tiktok-mit-milliardenstrafen EU droht Meta und TikTok mit Milliardenstrafen
Nächster Beitrag milliardendeal-beflügelt-keurig-dr-pepper-aktie Keurig Dr Pepper erhält Milliardeninvestition

Beliebte Beiträge

Mars übernimmt Pringles: Ein Milliardendeal

Weitreichende Folgen In einer der größten Übernahmen der jüngeren Unternehmensgeschichte hat der US-amerikanische Süßwarenkonzern Mars…

Von Adrian Kelbich

Deutsche Bank baut 2.000 Stellen ab und schließt Filialen

Die Deutsche Bank setzt ihren Sanierungskurs fort und wird in diesem Jahr rund 2.000 Arbeitsplätze…

Von Charlotte Probst

Merz‘ Vorstoß: Taurus-Marschflugkörper für die Ukraine?

Friedrich Merz, der designierte Bundeskanzler, hat erneut seinen Wunsch bekräftigt, Taurus-Marschflugkörper an die Ukraine zu…

Von Cornelia Schröder-Meins

Das könnte Sie auch interessieren

milliardendeal-beflügelt-keurig-dr-pepper-aktie
InternationalUnternehmenWirtschaft

Keurig Dr Pepper erhält Milliardeninvestition

Von Adrian Kelbich
eu-droht-meta-und-tiktok-mit-milliardenstrafen
EuropaTechnikUnternehmen

EU droht Meta und TikTok mit Milliardenstrafen

Von Cornelia Schröder-Meins
milei-sieg-beflügelt-märkte-–-peso-legt-kräftig-zu
InternationalPolitikWirtschaft

Milei-Sieg beflügelt Märkte – Peso legt kräftig zu

Von Charlotte Probst
nikkei-knackt-50.000-punkte-–-börsen-im-aufwind
DeutschlandInternationalWirtschaft

Nikkei knackt 50.000 Punkte – Börsen im Aufwind

Von Adrian Kelbich
Aktienfinancial.de

Über Uns

Wir begrüßen Sie bei AktienFrancial.de, Ihrem Tor zu unabhängigen Nachrichten und Neuigkeiten, sowie Hintergrund-Information zu Märkten, Politik, Finanzen, Wirtschaft, Technik und Wissenschaft.

RMK Marketing Inc.
41 Lana Terrace, Mississauga, Ontario L5A 3B2, Kanada​
Links
  • AGB
  • Impressum
  • Über uns
  • Datenschutz
  • Kontakt

© RMK Marketing Inc. Alle Rechte vorbehalten.

Welcome Back!

Sign in to your account

Lost your password?