聊天机器人扭曲新闻,甚至影响付费用户

为什么这很重要?如果聊天机器人甚至无法像Google那样准确检索新闻,就很难相信它们能够准确解读和引用这些新闻。这使得它们的回答内容,即使附有链接,也远不可靠。
自信地给出错误答案
研究人员指出,聊天机器人以“令人担忧的自信”给出了错误答案,极少对结果进行限定或承认知识盲区。例如,ChatGPT“从不拒绝回答问题”,尽管其200个回答中有134个是错误的。在所有八款工具中,Copilot是唯一拒绝回答问题多于回答问题的工具。
报告明确指出:“所有工具都始终更倾向于提供错误答案,而不是承认自身局限性。”
付费版本并不可靠
即使是像Grok-3 Search和Perplexity Pro这样的高级模型,虽然比免费版本更准确,但仍然自信地给出了错误答案。这让人质疑它们高昂订阅费用的价值。
报告解释说:“这种矛盾主要源于(这些机器人)倾向于提供明确但错误的答案,而不是直接拒绝回答问题。根本问题不仅在于聊天机器人的事实错误,还在于它们权威的对话语气,这使得用户难以区分准确和不准确的信息。”
报告补充道:“这种未经证实的自信给用户带来了可靠性和准确性的潜在危险幻觉。”
捏造链接
AI模型因幻觉问题而臭名昭著,但Tow研究发现,Gemini和Grok 3的幻觉最为频繁——超过一半时间如此。报告指出:“即使Grok正确识别了一篇文章,它也常常链接到捏造的URL。”这意味着Grok可能找到正确的标题和出版商,但随后制造出实际的文章链接。
西北大学的一项名为Generative AI in the Newsroom的倡议分析了Comscore流量数据,证实了这一模式。他们在2024年7月至11月的研究显示,ChatGPT在其回答中生成了205个失效URL。虽然出版物偶尔会删除文章,导致404错误,但研究人员指出,缺乏存档数据表明“该模型在回应用户查询时,幻觉出看似可信的权威新闻网站链接。”
鉴于AI搜索引擎的日益普及——Google在2024年第四季度市场份额首次跌破90%——这些发现令人担忧。该公司上周还为部分用户推出了AI Mode,用聊天机器人取代了常规搜索,尽管其AI Overviews广受批评。
每周约有4亿用户涌向ChatGPT,其引用的不可靠性和扭曲使它和其他流行AI工具可能成为虚假信息的引擎,即便它们从严格事实核查的新闻网站提取内容。
Tow报告得出结论,AI工具错误引用来源或错误呈现其内容可能会对出版商的声誉造成反噬。
无视被阻止的爬虫
Tow报告发现,情况对出版商而言更加恶化,几个聊天机器人仍然能够从使用Robots Exclusion Protocol(REP)或robots.txt阻止其爬虫的出版商那里检索文章。然而,矛盾的是,聊天机器人无法正确回答关于允许它们访问内容的网站的问题。
报告称:“Perplexity Pro在这方面表现最差,正确识别了近三分之一的九十篇它本不应访问的文章摘录。”
这表明,不仅AI公司仍在无视REP——正如Perplexity和其他公司去年被发现的那样——而且与它们有任何许可协议的出版商也无法保证被正确引用。
哥伦比亚的报告只是更大问题的一个症状。Generative AI in the Newsroom报告还发现,聊天机器人很少将流量引导到它们提取信息的新闻网站,其他报告也证实了这一点。从2024年7月至11月,Perplexity仅将7%的引流传递给新闻网站,而ChatGPT仅为3%。相比之下,AI工具倾向于偏好Scribd.com、Coursera和大学相关的教育资源,将高达30%的流量导向这些网站。
底线:原始报道仍然是比AI工具复述的更可靠的新闻来源。在接受它们提供的信息为事实之前,始终验证链接,并运用你的批判性思维和媒体素养技能来评估回答。
相关文章
维德的旅程:从《星球大战》中的悲剧到救赎
达斯·维德,恐惧与暴政的象征,是电影中最具标志性的反派之一。然而,在面具之下隐藏着悲剧、失去和最终救赎的故事。本文探讨了安纳金·天行者转变为达斯·维德的过程,分析了《星球大战》系列中定义他道路的关键时刻、情感和选择。关键要点安纳金·天行者的早年和绝地训练受到情感挣扎和深厚依恋的塑造。他对失去亲人的恐惧和对控制的渴望使他落入帕尔帕廷皇帝的掌控。穆斯塔法之战给他留下了严重的身体和情感创伤,确立了他作为
前OpenAI工程师分享公司文化与快速增长的见解
三周前,为OpenAI关键产品做出贡献的工程师Calvin French-Owen离开公司。他最近发表了一篇引人入胜的博客,详细描述了在OpenAI的一年,包括开发Codex的紧张努力,Codex是一个与Cursor和Anthropic的Claude Code竞争的编码代理。French-Owen澄清,他的离开并非因内部冲突,而是源于回归创业生活的愿望。他之前共同创立了Segment,一家2020
AI驱动的翻译提升全球商业沟通
在当今相互联系的世界中,无缝的跨语言沟通对成功至关重要。DeepL 领跑行业,利用尖端人工智能技术为全球企业优化多语言互动。从即时文本翻译到高级语音解决方案,DeepL 改变了企业与全球客户、合作伙伴和团队的互动方式。关键亮点DeepL 利用 AI 优化跨语言商业沟通。其 AI 优先考虑翻译的精确性、质量和安全性。DeepL 支持文本和语音翻译,提升国际运营效率。DeepL 的全球覆盖现已扩展至
评论 (50)
0/200
GaryWalker
2025-04-24 10:12:13
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
2025-04-20 23:53:48
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
2025-04-16 17:13:53
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
2025-04-16 16:05:47
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
2025-04-15 15:18:40
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
DonaldLee
2025-04-15 05:25:02
I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?
0
为什么这很重要?如果聊天机器人甚至无法像Google那样准确检索新闻,就很难相信它们能够准确解读和引用这些新闻。这使得它们的回答内容,即使附有链接,也远不可靠。
自信地给出错误答案
研究人员指出,聊天机器人以“令人担忧的自信”给出了错误答案,极少对结果进行限定或承认知识盲区。例如,ChatGPT“从不拒绝回答问题”,尽管其200个回答中有134个是错误的。在所有八款工具中,Copilot是唯一拒绝回答问题多于回答问题的工具。
报告明确指出:“所有工具都始终更倾向于提供错误答案,而不是承认自身局限性。”
付费版本并不可靠
即使是像Grok-3 Search和Perplexity Pro这样的高级模型,虽然比免费版本更准确,但仍然自信地给出了错误答案。这让人质疑它们高昂订阅费用的价值。
报告解释说:“这种矛盾主要源于(这些机器人)倾向于提供明确但错误的答案,而不是直接拒绝回答问题。根本问题不仅在于聊天机器人的事实错误,还在于它们权威的对话语气,这使得用户难以区分准确和不准确的信息。”
报告补充道:“这种未经证实的自信给用户带来了可靠性和准确性的潜在危险幻觉。”
捏造链接
AI模型因幻觉问题而臭名昭著,但Tow研究发现,Gemini和Grok 3的幻觉最为频繁——超过一半时间如此。报告指出:“即使Grok正确识别了一篇文章,它也常常链接到捏造的URL。”这意味着Grok可能找到正确的标题和出版商,但随后制造出实际的文章链接。
西北大学的一项名为Generative AI in the Newsroom的倡议分析了Comscore流量数据,证实了这一模式。他们在2024年7月至11月的研究显示,ChatGPT在其回答中生成了205个失效URL。虽然出版物偶尔会删除文章,导致404错误,但研究人员指出,缺乏存档数据表明“该模型在回应用户查询时,幻觉出看似可信的权威新闻网站链接。”
鉴于AI搜索引擎的日益普及——Google在2024年第四季度市场份额首次跌破90%——这些发现令人担忧。该公司上周还为部分用户推出了AI Mode,用聊天机器人取代了常规搜索,尽管其AI Overviews广受批评。
每周约有4亿用户涌向ChatGPT,其引用的不可靠性和扭曲使它和其他流行AI工具可能成为虚假信息的引擎,即便它们从严格事实核查的新闻网站提取内容。
Tow报告得出结论,AI工具错误引用来源或错误呈现其内容可能会对出版商的声誉造成反噬。
无视被阻止的爬虫
Tow报告发现,情况对出版商而言更加恶化,几个聊天机器人仍然能够从使用Robots Exclusion Protocol(REP)或robots.txt阻止其爬虫的出版商那里检索文章。然而,矛盾的是,聊天机器人无法正确回答关于允许它们访问内容的网站的问题。
报告称:“Perplexity Pro在这方面表现最差,正确识别了近三分之一的九十篇它本不应访问的文章摘录。”
这表明,不仅AI公司仍在无视REP——正如Perplexity和其他公司去年被发现的那样——而且与它们有任何许可协议的出版商也无法保证被正确引用。
哥伦比亚的报告只是更大问题的一个症状。Generative AI in the Newsroom报告还发现,聊天机器人很少将流量引导到它们提取信息的新闻网站,其他报告也证实了这一点。从2024年7月至11月,Perplexity仅将7%的引流传递给新闻网站,而ChatGPT仅为3%。相比之下,AI工具倾向于偏好Scribd.com、Coursera和大学相关的教育资源,将高达30%的流量导向这些网站。
底线:原始报道仍然是比AI工具复述的更可靠的新闻来源。在接受它们提供的信息为事实之前,始终验证链接,并运用你的批判性思维和媒体素养技能来评估回答。




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓




I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?












