Option
Heim
Nachricht
Chatbots verzerren Nachrichten und beeinflussen sogar bezahlte Benutzer

Chatbots verzerren Nachrichten und beeinflussen sogar bezahlte Benutzer

11. April 2025
113

Chatbots verzerren Nachrichten und beeinflussen sogar bezahlte Benutzer

Warum ist das wichtig? Wenn Chatbots nicht einmal Nachrichten so gut abrufen können wie Google, ist es schwer, ihnen zu vertrauen, dass sie diese Nachrichten korrekt interpretieren und zitieren. Dies macht den Inhalt ihrer Antworten, selbst wenn sie verlinkt sind, deutlich weniger zuverlässig.

Selbstbewusst falsche Antworten geben

Die Forscher stellten fest, dass die Chatbots mit „alarmierender Selbstsicherheit“ falsche Antworten gaben und selten ihre Ergebnisse einschränkten oder Wissenslücken zugaben. ChatGPT zum Beispiel „lehnte es nie ab, eine Antwort zu geben“, obwohl 134 von 200 Antworten falsch waren. Von allen acht Tools war Copilot das einzige, das mehr Anfragen ablehnte, als es beantwortete.

„Alle Tools neigten durchweg dazu, eher eine falsche Antwort zu geben, als ihre Einschränkungen einzugestehen“, stellte der Bericht klar.

Bezahlte Stufen sind nicht zuverlässiger

Selbst Premium-Modelle wie Grok-3 Search und Perplexity Pro, obwohl genauer als ihre kostenlosen Pendants, gaben immer noch selbstbewusst falsche Antworten. Dies wirft Fragen über den Wert ihrer oft hohen Abonnementkosten auf.

„Dieser Widerspruch resultiert hauptsächlich aus der Tendenz [der Bots], definitive, aber falsche Antworten zu geben, anstatt die Frage direkt abzulehnen“, erklärt der Bericht. „Die grundlegende Sorge geht über die sachlichen Fehler der Chatbots hinaus zu ihrem autoritären Gesprächston, der es Nutzern erschweren kann, zwischen korrekten und unkorrekten Informationen zu unterscheiden.“

„Dieses unverdiente Selbstvertrauen vermittelt Nutzern eine potenziell gefährliche Illusion von Zuverlässigkeit und Genauigkeit“, fügte der Bericht hinzu.

Erfundene Links

KI-Modelle sind berüchtigt für Halluzinationen, aber die Tow-Studie ergab, dass Gemini und Grok 3 dies am häufigsten taten – mehr als die Hälfte der Zeit. „Selbst wenn Grok einen Artikel korrekt identifizierte, verlinkte es oft auf eine erfundene URL“, stellte der Bericht fest, was bedeutet, dass Grok den richtigen Titel und Verlag finden konnte, aber dann den tatsächlichen Artikel-Link erfand.

Eine Analyse der Comscore-Verkehrsdaten durch Generative AI in the Newsroom, eine Initiative der Northwestern University, bestätigte dieses Muster. Ihre Studie von Juli bis November 2024 zeigte, dass ChatGPT 205 defekte URLs in seinen Antworten generierte. Während Verlage gelegentlich Geschichten offline nehmen, was zu 404-Fehlern führen kann, stellten die Forscher fest, dass das Fehlen von Archivdaten darauf hindeutet, dass „das Modell plausible aussehende Links zu autoritativen Nachrichtenquellen halluziniert hat, wenn es auf Nutzeranfragen antwortete.“

Angesichts der wachsenden Akzeptanz von KI-Suchmaschinen – Google fiel im vierten Quartal 2024 erstmals seit 10 Jahren unter 90 % Marktanteil – sind diese Ergebnisse besorgniserregend. Das Unternehmen veröffentlichte letzte Woche auch den AI Mode für bestimmte Nutzer, der die normale Suche durch einen Chatbot ersetzt, trotz der weitverbreiteten Unbeliebtheit seiner AI Overviews.

Mit etwa 400 Millionen Nutzern, die wöchentlich zu ChatGPT strömen, machen die Unzuverlässigkeit und Verzerrung seiner Zitate es und andere beliebte KI-Tools zu potenziellen Motoren der Desinformation, selbst wenn sie Inhalte von rigoros faktengeprüften Nachrichtenseiten ziehen.

Der Tow-Bericht schlussfolgerte, dass KI-Tools, die Quellen falsch zuordnen oder deren Arbeit falsch darstellen, den Ruf der Verlage gefährden könnten.

Ignorieren blockierter Crawler

Die Situation verschlimmert sich für Verlage, da der Tow-Bericht feststellte, dass mehrere Chatbots weiterhin Artikel von Verlagen abrufen konnten, die ihre Crawler mit dem Robots Exclusion Protocol (REP) oder robots.txt blockiert hatten. Paradoxerweise scheiterten die Chatbots jedoch daran, Anfragen zu Websites korrekt zu beantworten, die ihnen den Zugriff auf ihre Inhalte erlauben.

„Perplexity Pro war in dieser Hinsicht der schlimmste Übeltäter und identifizierte korrekt fast ein Drittel der neunzig Auszüge aus Artikeln, auf die es keinen Zugriff haben sollte“, heißt es im Bericht.

Dies deutet darauf hin, dass KI-Unternehmen nicht nur weiterhin REP ignorieren – wie Perplexity und andere letztes Jahr erwischt wurden – sondern dass Verlage in jeder Art von Lizenzvereinbarung mit ihnen nicht garantiert korrekt zitiert werden.

Der Bericht von Columbia ist nur ein Symptom eines größeren Problems. Der Bericht von Generative AI in the Newsroom stellte auch fest, dass Chatbots selten Traffic zu den Nachrichtenseiten leiten, von denen sie Informationen beziehen, was andere Berichte bestätigen. Von Juli bis November 2024 leitete Perplexity 7 % der Verweise an Nachrichtenseiten weiter, während ChatGPT nur 3 % weitergab. Im Vergleich dazu bevorzugten KI-Tools Bildungsressourcen wie Scribd.com, Coursera und solche, die mit Universitäten verbunden sind, und leiteten bis zu 30 % des Traffics dorthin.

Fazit: Originalberichterstattung bleibt eine zuverlässigere Nachrichtenquelle als das, was KI-Tools wiedergeben. Überprüfen Sie immer Links, bevor Sie das, was sie Ihnen als Tatsache präsentieren, akzeptieren, und nutzen Sie Ihre kritischen Denkfähigkeiten und Medienkompetenz, um Antworten zu bewerten.

Verwandter Artikel
Trump priorisiert KI-Wachstum vor Regulierung, um China auszustechen Trump priorisiert KI-Wachstum vor Regulierung, um China auszustechen Die Trump-Administration hat am Mittwoch ihren bahnbrechenden Aktionsplan für künstliche Intelligenz (KI) vorgestellt und damit einen entscheidenden Bruch mit der risikoscheuen KI-Politik der Biden-Ad
Auf der Suche nach Glaube und Sinn in einem Zeitalter der Skepsis Auf der Suche nach Glaube und Sinn in einem Zeitalter der Skepsis In unserem modernen Zeitalter der wissenschaftlichen Forschung und des kritischen Denkens fühlt es sich oft so an, als würde man gegen den Strom schwimmen, wenn man seinen spirituellen Glauben aufrech
Wie ChatGPT funktioniert: Fähigkeiten, Anwendungen und künftige Implikationen Wie ChatGPT funktioniert: Fähigkeiten, Anwendungen und künftige Implikationen Die rasante Entwicklung der künstlichen Intelligenz verändert die digitale Interaktion und Kommunikation. An der Spitze dieses Wandels steht ChatGPT, eine fortschrittliche Konversations-KI, die neue S
Kommentare (51)
0/200
NoahGreen
NoahGreen 22. August 2025 21:01:25 MESZ

Paying for premium AI chatbots and still getting fake news? That's a rip-off! 😡 This study just proves we can't trust these bots to get the facts straight.

GaryWalker
GaryWalker 24. April 2025 04:12:13 MESZ

プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。

DonaldSanchez
DonaldSanchez 20. April 2025 17:53:48 MESZ

프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.

RalphHill
RalphHill 16. April 2025 11:13:53 MESZ

Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.

EdwardTaylor
EdwardTaylor 16. April 2025 10:05:47 MESZ

プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅

GregoryAdams
GregoryAdams 15. April 2025 09:18:40 MESZ

프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓

Zurück nach oben
OR