Freitag, 12 Dez. 2025
  • Mein Feed
  • Meine Speicherungen
Abonnieren
Aktienfinancial.de
  • Startseite
  • Deutschland
  • Europa
  • International
  • Politik
  • Unternehmen
  • Wirtschaft
  • Technik
  • Umwelt
Font ResizerAa
Aktienfinancial.deAktienfinancial.de
  • Meine Speicherungen
  • Mein Feed
Suchen
  • Startseite
  • Deutschland
  • Europa
  • International
  • Politik
  • Unternehmen
  • Wirtschaft
  • Technik
  • Umwelt
Have an existing account? Sign In
Folgen Sie uns
© RMK Marketing Inc. Alle Rechte vorbehalten.
InternationalTechnikUnternehmen

Studie warnt: Künstliche Intelligenz erfindet Fakten

Susanne Jung
Letzte Aktualisierung: 27. Oktober 2025 15:45
Susanne Jung
studie-warnt-künstliche-intelligenz-erfindet-fakten

Eine neue Untersuchung der Europäischen Rundfunkunion (EBU) hat erhebliche Zweifel an der Zuverlässigkeit populärer KI-Chatbots geweckt. Demnach liefern Systeme wie ChatGPT, Claude, Gemini oder Microsoft Copilot in bis zu 40 Prozent ihrer Antworten falsche Informationen – oft in einem Tonfall, der so überzeugend klingt, dass selbst erfahrene Nutzer die Fehler kaum erkennen.

Hohe Fehlerquote bei beliebten Chatbots

Laut der Studie, die 68 öffentlich-rechtliche Rundfunkanstalten aus 56 Ländern umfasst, erfinden viele Systeme regelmäßig angebliche Fakten oder geben falsche Quellen an. Besonders problematisch sind Fragen zu aktuellen Nachrichten, regionalen Ereignissen und komplexen Themen, bei denen mehrere Informationen kombiniert werden müssen.

So erklärte ein Chatbot etwa fälschlich, Papst Franziskus sei bereits verstorben, während ein anderer nicht wusste, dass Schweden Mitglied der NATO ist. Auch politische Ereignisse werden oft falsch dargestellt – etwa wenn Google Gemini die Wiederwahl von Donald Trump als „möglich“ bezeichnet, obwohl sie längst stattgefunden hat.

„Diese Systeme klingen glaubwürdig, auch wenn sie objektiv falsche Aussagen machen“, warnt Peter Posch, Wirtschaftswissenschaftler an der Technischen Universität Dortmund. „Gerade ungeübte Nutzer sind gefährdet, weil sie die Fehler nicht sofort erkennen.“

Fachleute bezeichnen dieses Phänomen als „Halluzination“ – eine Form der Textgenerierung, bei der die KI sinnvolle, aber frei erfundene Inhalte erstellt, die keinerlei reale Grundlage haben.

Mögliche Gefahr für Meinungsbildung und Demokratie

Die Konsequenzen reichen weit über technische Ungenauigkeiten hinaus. Immer mehr Menschen beziehen ihre Informationen direkt von Chatbots – ein Trend, der sich laut Experten zu einem ernsthaften Risiko für den öffentlichen Diskurs und demokratische Prozesse entwickeln könnte.

Falsche KI-Aussagen werden häufig ungeprüft in sozialen Netzwerken geteilt, wodurch sich Desinformationen rasch verbreiten. Schüler und Studierende übernehmen fehlerhafte Inhalte in Referate oder Hausarbeiten, und Bürger könnten politische Entscheidungen auf Basis erfundener Fakten treffen.

Noch gravierender: Viele Nutzer wissen nicht, dass solche Systeme überhaupt Fehler machen können. Obwohl Plattformen wie ChatGPT in ihren Nutzungsbedingungen auf mögliche Unstimmigkeiten hinweisen, liest kaum jemand diese Hinweise. Das Vertrauen in eine objektive, maschinelle Wahrheit bleibt bestehen – ein gefährlicher Irrtum.

Schaden für die Glaubwürdigkeit der Medien

Auch etablierte Nachrichtenhäuser sind betroffen. Chatbots behaupten häufig, ihre Informationen stammten von ARD, ZDF oder der Tagesschau, obwohl diese Medien nie über das angebliche Thema berichtet haben. Damit wird das Vertrauen in seriösen Journalismus untergraben.

Die EBU-Analyse umfasste Hunderte von Testfragen zu Geschichte, Wissenschaft und aktuellen Ereignissen. Je nach Themenbereich schwankte die Fehlerquote zwischen 15 und 40 Prozent – kein einziger getesteter Chatbot lieferte durchgehend korrekte Ergebnisse.

Ein Beispiel: Während ein System korrekte Daten über den Zweiten Weltkrieg liefern konnte, „erfand“ dasselbe Programm wenige Minuten später fiktive Aussagen über Wirtschaftsdaten, die es nie gab.

Warum die Systeme so oft irren

Die Ursache für diese gravierenden Fehler liegt in der Funktionsweise der Technologie. Künstliche Intelligenz versteht keine Inhalte, sondern berechnet lediglich Wahrscheinlichkeiten, welche Wörter sinnvoll aufeinander folgen. Sie erkennt Muster, aber keine Wahrheit.

„KI denkt nicht – sie schätzt nur, was plausibel klingt“, erklären Experten. Ein echtes Verständnis von Fakten oder logischen Zusammenhängen fehlt. Auch das Einbinden externer Datenbanken und das Training mit neuen Modellen kann das Grundproblem bislang nicht vollständig lösen.

Trotz Milliardeninvestitionen der Tech-Konzerne bleiben Halluzinationen eine zentrale Schwachstelle moderner Sprachmodelle. Selbst mit Verbesserungen bei Quellenangaben und sogenannten „Retrieval-Systemen“ treten weiterhin massive Ungenauigkeiten auf.

Was Nutzer beachten sollten

Die Europäische Rundfunkunion fordert deshalb neue Leitlinien für den Umgang mit Chatbots. Wichtige Informationen sollten stets mit verlässlichen Medienquellen überprüft werden. Nutzer sollten wissen, dass KI-generierte Texte nicht automatisch korrekt sind – insbesondere bei politischen Themen, Gesundheitsfragen oder Finanzentscheidungen.

Schulen und Universitäten stehen ebenfalls in der Pflicht, Medienkompetenz zu vermitteln. Lernende müssen verstehen, wie KI funktioniert, wo ihre Grenzen liegen und wie man Falschinformationen erkennen kann.

Die Bundesregierung plant derzeit Aufklärungskampagnen, um die Öffentlichkeit für die Risiken zu sensibilisieren. Doch viele Experten halten diese Bemühungen für verspätet – Millionen Menschen nutzen KI-Tools längst täglich.Bis sich die Systeme verbessern, gilt ein klarer Rat: Chatbots sind nützlich für kreative Aufgaben, Textformulierungen oder Ideensammlungen, doch als verlässliche Informationsquelle eignen sie sich nicht. Wer fundierte Nachrichten sucht, sollte weiterhin auf journalistisch geprüfte Medien setzen, in denen Menschen recherchieren, prüfen und Verantwortung tragen.

Stichwörter: Chatbots, ChatGPT, Desinformation, EBU, Faktenprüfung, Falschinformationen, Halluzination, KI, Künstliche Intelligenz, Medienkompetenz
Vorheriger Beitrag eu-droht-meta-und-tiktok-mit-milliardenstrafen EU droht Meta und TikTok mit Milliardenstrafen
Nächster Beitrag milliardendeal-beflügelt-keurig-dr-pepper-aktie Keurig Dr Pepper erhält Milliardeninvestition

Beliebte Beiträge

Trump bremst Zölle – Goldpreis fällt spürbar zurück

US-Präsident kündigt vorübergehenden Aufschub an Der jüngste Richtungswechsel von US-Präsident Donald Trump im transatlantischen Zollkonflikt…

Von Cornelia Schröder-Meins

Commerzbank im Fokus: UniCredit übernimmt führende Rolle

UniCredit baut Beteiligung massiv aus Die italienische Großbank UniCredit hat ihren Einfluss bei der Commerzbank…

Von Charlotte Probst

Wirtschaft im Schatten des Krieges: Globale Dynamiken im Fokus

Die Wiederkehr der Kriegsökonomie In einer Zeit, in der geopolitische Spannungen und militärische Konflikte zunehmen,…

Von Cornelia Schröder-Meins

Das könnte Sie auch interessieren

europa-verabschiedet-sich-vom-strikten-verbrenner-verbot
EuropaTechnikUmwelt

EU rückt vom geplanten Verbrenner-Aus ab

Von Cornelia Schröder-Meins
china-dreht-den-hahn-zu-–-preise-für-antimon-und-wolfram-explodieren
InternationalUnternehmen

China dreht den Hahn zu – Preise für Antimon und Wolfram explodieren im Zuge des KI- und Quantencomputing-Booms

Von Adrian Kelbich
amazon-plant-rekordinvestition-in-indien-bis-2030
InternationalTechnikUnternehmen

Amazon plant Rekordinvestition in Indien bis 2030

Von Charlotte Probst
microsoft-plant-rekordinvestition-in-indiens-ki-ausbau
InternationalTechnikUnternehmen

Microsoft plant Rekordinvestition in Indiens KI-Ausbau

Von Susanne Jung
Aktienfinancial.de

Über Uns

Wir begrüßen Sie bei AktienFrancial.de, Ihrem Tor zu unabhängigen Nachrichten und Neuigkeiten, sowie Hintergrund-Information zu Märkten, Politik, Finanzen, Wirtschaft, Technik und Wissenschaft.

RMK Marketing Inc.
41 Lana Terrace, Mississauga, Ontario L5A 3B2, Kanada​
Links
  • AGB
  • Impressum
  • Über uns
  • Datenschutz
  • Kontakt

© RMK Marketing Inc. Alle Rechte vorbehalten.

Welcome Back!

Sign in to your account

Lost your password?