聊天机器人扭曲新闻,甚至影响付费用户

为什么这很重要?如果聊天机器人甚至无法像Google那样准确检索新闻,就很难相信它们能够准确解读和引用这些新闻。这使得它们的回答内容,即使附有链接,也远不可靠。
自信地给出错误答案
研究人员指出,聊天机器人以“令人担忧的自信”给出了错误答案,极少对结果进行限定或承认知识盲区。例如,ChatGPT“从不拒绝回答问题”,尽管其200个回答中有134个是错误的。在所有八款工具中,Copilot是唯一拒绝回答问题多于回答问题的工具。
报告明确指出:“所有工具都始终更倾向于提供错误答案,而不是承认自身局限性。”
付费版本并不可靠
即使是像Grok-3 Search和Perplexity Pro这样的高级模型,虽然比免费版本更准确,但仍然自信地给出了错误答案。这让人质疑它们高昂订阅费用的价值。
报告解释说:“这种矛盾主要源于(这些机器人)倾向于提供明确但错误的答案,而不是直接拒绝回答问题。根本问题不仅在于聊天机器人的事实错误,还在于它们权威的对话语气,这使得用户难以区分准确和不准确的信息。”
报告补充道:“这种未经证实的自信给用户带来了可靠性和准确性的潜在危险幻觉。”
捏造链接
AI模型因幻觉问题而臭名昭著,但Tow研究发现,Gemini和Grok 3的幻觉最为频繁——超过一半时间如此。报告指出:“即使Grok正确识别了一篇文章,它也常常链接到捏造的URL。”这意味着Grok可能找到正确的标题和出版商,但随后制造出实际的文章链接。
西北大学的一项名为Generative AI in the Newsroom的倡议分析了Comscore流量数据,证实了这一模式。他们在2024年7月至11月的研究显示,ChatGPT在其回答中生成了205个失效URL。虽然出版物偶尔会删除文章,导致404错误,但研究人员指出,缺乏存档数据表明“该模型在回应用户查询时,幻觉出看似可信的权威新闻网站链接。”
鉴于AI搜索引擎的日益普及——Google在2024年第四季度市场份额首次跌破90%——这些发现令人担忧。该公司上周还为部分用户推出了AI Mode,用聊天机器人取代了常规搜索,尽管其AI Overviews广受批评。
每周约有4亿用户涌向ChatGPT,其引用的不可靠性和扭曲使它和其他流行AI工具可能成为虚假信息的引擎,即便它们从严格事实核查的新闻网站提取内容。
Tow报告得出结论,AI工具错误引用来源或错误呈现其内容可能会对出版商的声誉造成反噬。
无视被阻止的爬虫
Tow报告发现,情况对出版商而言更加恶化,几个聊天机器人仍然能够从使用Robots Exclusion Protocol(REP)或robots.txt阻止其爬虫的出版商那里检索文章。然而,矛盾的是,聊天机器人无法正确回答关于允许它们访问内容的网站的问题。
报告称:“Perplexity Pro在这方面表现最差,正确识别了近三分之一的九十篇它本不应访问的文章摘录。”
这表明,不仅AI公司仍在无视REP——正如Perplexity和其他公司去年被发现的那样——而且与它们有任何许可协议的出版商也无法保证被正确引用。
哥伦比亚的报告只是更大问题的一个症状。Generative AI in the Newsroom报告还发现,聊天机器人很少将流量引导到它们提取信息的新闻网站,其他报告也证实了这一点。从2024年7月至11月,Perplexity仅将7%的引流传递给新闻网站,而ChatGPT仅为3%。相比之下,AI工具倾向于偏好Scribd.com、Coursera和大学相关的教育资源,将高达30%的流量导向这些网站。
底线:原始报道仍然是比AI工具复述的更可靠的新闻来源。在接受它们提供的信息为事实之前,始终验证链接,并运用你的批判性思维和媒体素养技能来评估回答。
相关文章
在怀疑论盛行的时代寻求信仰和目标
在科学探索和批判性思维盛行的现代,保持精神信仰常常让人感觉逆流而行。许多人努力调和永恒的信仰与当代的怀疑主义,使他们渴望更深刻的意义。这本书探讨了在疑虑重重的环境中如何培养信仰,为我们提供了锚定目标、培养持久精神韧性的实用智慧。要点在日益世俗化的世界中应对信仰挑战应对精神不确定性的建设性方法社区在维系信仰体系中的重要作用同情和服务如何重申精神目标平衡理性思考与直觉智慧在困难时期保持精神希望现代性的
ChatGPT 的工作原理:功能、应用和未来影响
人工智能的快速发展正在改变数字互动和通信。引领这一变革的是 ChatGPT,它是一种先进的对话式人工智能,为自然语言处理设定了新标准。本报告将深入探讨 ChatGPT 的运行方式、其在各行各业的开创性能力,以及它所引发的重要伦理讨论。了解这项技术如何重新定义人机交互。要点ChatGPT 由 OpenAI 开发,代表了对话式人工智能的一大进步。其复杂的深度学习架构可以生成非常类似人类的文本。实际应用
Salesforce 的 Transformer 模型指南:人工智能文本摘要解析
在信息过载成为常态的时代,人工智能驱动的文本摘要已成为从冗长文档中提取关键见解的不可或缺的工具。本综合指南研究了 Salesforce 的开创性人工智能摘要技术,向您展示如何使用极少的代码实现自己的复杂摘要器。我们将探索底层技术,介绍实际的实施步骤,并检查能证明其变革潜力的实际应用。主要亮点Salesforce 人工智能摘要器:利用尖端技术将冗长的文档转化为简洁的摘要转换器架构:了解驱动现代摘要工
评论 (51)
0/200
NoahGreen
2025-08-23 03:01:25
Paying for premium AI chatbots and still getting fake news? That's a rip-off! 😡 This study just proves we can't trust these bots to get the facts straight.
0
GaryWalker
2025-04-24 10:12:13
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
2025-04-20 23:53:48
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
2025-04-16 17:13:53
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
2025-04-16 16:05:47
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
2025-04-15 15:18:40
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
为什么这很重要?如果聊天机器人甚至无法像Google那样准确检索新闻,就很难相信它们能够准确解读和引用这些新闻。这使得它们的回答内容,即使附有链接,也远不可靠。
自信地给出错误答案
研究人员指出,聊天机器人以“令人担忧的自信”给出了错误答案,极少对结果进行限定或承认知识盲区。例如,ChatGPT“从不拒绝回答问题”,尽管其200个回答中有134个是错误的。在所有八款工具中,Copilot是唯一拒绝回答问题多于回答问题的工具。
报告明确指出:“所有工具都始终更倾向于提供错误答案,而不是承认自身局限性。”
付费版本并不可靠
即使是像Grok-3 Search和Perplexity Pro这样的高级模型,虽然比免费版本更准确,但仍然自信地给出了错误答案。这让人质疑它们高昂订阅费用的价值。
报告解释说:“这种矛盾主要源于(这些机器人)倾向于提供明确但错误的答案,而不是直接拒绝回答问题。根本问题不仅在于聊天机器人的事实错误,还在于它们权威的对话语气,这使得用户难以区分准确和不准确的信息。”
报告补充道:“这种未经证实的自信给用户带来了可靠性和准确性的潜在危险幻觉。”
捏造链接
AI模型因幻觉问题而臭名昭著,但Tow研究发现,Gemini和Grok 3的幻觉最为频繁——超过一半时间如此。报告指出:“即使Grok正确识别了一篇文章,它也常常链接到捏造的URL。”这意味着Grok可能找到正确的标题和出版商,但随后制造出实际的文章链接。
西北大学的一项名为Generative AI in the Newsroom的倡议分析了Comscore流量数据,证实了这一模式。他们在2024年7月至11月的研究显示,ChatGPT在其回答中生成了205个失效URL。虽然出版物偶尔会删除文章,导致404错误,但研究人员指出,缺乏存档数据表明“该模型在回应用户查询时,幻觉出看似可信的权威新闻网站链接。”
鉴于AI搜索引擎的日益普及——Google在2024年第四季度市场份额首次跌破90%——这些发现令人担忧。该公司上周还为部分用户推出了AI Mode,用聊天机器人取代了常规搜索,尽管其AI Overviews广受批评。
每周约有4亿用户涌向ChatGPT,其引用的不可靠性和扭曲使它和其他流行AI工具可能成为虚假信息的引擎,即便它们从严格事实核查的新闻网站提取内容。
Tow报告得出结论,AI工具错误引用来源或错误呈现其内容可能会对出版商的声誉造成反噬。
无视被阻止的爬虫
Tow报告发现,情况对出版商而言更加恶化,几个聊天机器人仍然能够从使用Robots Exclusion Protocol(REP)或robots.txt阻止其爬虫的出版商那里检索文章。然而,矛盾的是,聊天机器人无法正确回答关于允许它们访问内容的网站的问题。
报告称:“Perplexity Pro在这方面表现最差,正确识别了近三分之一的九十篇它本不应访问的文章摘录。”
这表明,不仅AI公司仍在无视REP——正如Perplexity和其他公司去年被发现的那样——而且与它们有任何许可协议的出版商也无法保证被正确引用。
哥伦比亚的报告只是更大问题的一个症状。Generative AI in the Newsroom报告还发现,聊天机器人很少将流量引导到它们提取信息的新闻网站,其他报告也证实了这一点。从2024年7月至11月,Perplexity仅将7%的引流传递给新闻网站,而ChatGPT仅为3%。相比之下,AI工具倾向于偏好Scribd.com、Coursera和大学相关的教育资源,将高达30%的流量导向这些网站。
底线:原始报道仍然是比AI工具复述的更可靠的新闻来源。在接受它们提供的信息为事实之前,始终验证链接,并运用你的批判性思维和媒体素养技能来评估回答。




Paying for premium AI chatbots and still getting fake news? That's a rip-off! 😡 This study just proves we can't trust these bots to get the facts straight.




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓












