聊天機器人扭曲新聞,甚至影響付費用戶

為什麼這很重要?如果聊天機器人連新聞檢索都無法與Google媲美,就很難信任它們能準確解釋並引用這些新聞。這使得它們的回應內容,即使有連結,也變得遠不可靠。
自信地給出錯誤答案
研究人員指出,聊天機器人以「令人震驚的自信」回覆錯誤答案,幾乎不對其結果加以限定或承認知識缺口。例如,ChatGPT「從未拒絕提供答案」,儘管其200個回應中有134個是錯誤的。在所有八個工具中,Copilot是唯一拒絕回答的次數多於回應次數的工具。
報告澄清:「所有工具一致地更傾向於提供錯誤答案,而不是承認自身的局限性。」
付費層級並不更可靠
即使是像Grok-3 Search和Perplexity Pro這樣的付費高級模型,雖然比免費版本更準確,但仍自信地給出錯誤答案。這讓人們對其高昂的訂閱費用價值產生質疑。
報告解釋:「這種矛盾主要源於[機器人]傾向於提供明確但錯誤的答案,而不是直接拒絕回答問題。」「根本問題不僅在於聊天機器人的事實錯誤,還在於它們權威的對話語氣,這使得用戶難以區分準確與不準確的資訊。」
報告補充:「這種不實的自信為用戶呈現了一種潛在危險的可靠性和準確性假象。」
捏造連結
AI模型因產生幻覺而臭名昭著,但Tow研究發現,Gemini和Grok 3的幻覺頻率最高——超過一半的時間。「即使Grok正確識別了一篇文章,它也常常連接到一個捏造的URL,」報告指出,這意味著Grok可能找到正確的標題和出版商,但隨後製造出實際的文章連結。
西北大學的「新聞室中的生成式AI」計畫通過分析Comscore流量數據,證實了這種模式。他們在2024年7月至11月的研究顯示,ChatGPT在其回應中生成了205個無效URL。雖然出版物偶爾會移除報導,導致404錯誤,但研究人員指出,缺乏存檔數據表明「該模型在回應用戶查詢時,捏造了看似可信的權威新聞網站連結。」
鑑於AI搜尋引擎的採用率不斷上升——Google在2024年第四季的市場份額首次在10年內跌破90%——這些發現令人不安。該公司上週還為某些用戶推出了AI Mode,儘管其AI Overviews廣受批評,仍用聊天機器人取代了常規搜尋。
隨著每週約4億用戶湧向ChatGPT,其引用的不可靠性和扭曲使它和其他熱門AI工具成為潛在的錯誤資訊引擎,即便它們從嚴格事實查核的新聞網站提取內容。
Tow報告得出結論,AI工具錯誤引用來源或不正確呈現其工作,可能會對出版商的聲譽造成反效果。
無視被阻擋的爬蟲
對出版商來說,情況更加惡化,因為Tow報告發現,幾個聊天機器人仍能從使用機器人排除協議(REP)或robots.txt阻止其爬蟲的出版商那裡檢索文章。然而,矛盾的是,聊天機器人無法正確回答關於允許它們訪問內容的網站的查詢。
報告指出:「Perplexity Pro在這方面是最嚴重的違規者,正確識別了近三分之一的九十篇它不應有權訪問的文章摘錄。」
這表明,AI公司不僅仍在無視REP——正如Perplexity和其他公司去年被發現的那樣——而且與它們簽訂任何許可協議的出版商也無法保證被正確引用。
哥倫比亞的報告只是更大問題的一個症狀。「新聞室中的生成式AI」報告還發現,聊天機器人很少將流量導向它們提取資訊的新聞網站,其他報告也證實了這一點。從2024年7月至11月,Perplexity僅將7%的轉介流量傳遞給新聞網站,而ChatGPT僅傳遞3%。相比之下,AI工具傾向於偏好像Scribd.com、Coursera和與大學相關的教育資源,將多達30%的流量導向這些資源。
底線:原始報導仍然是比AI工具反芻的內容更可靠的新聞來源。在接受它們提供的事實之前,務必驗證連結,並運用你的批判性思維和媒體素養技能來評估回應。
相關文章
達斯·維德的旅程:從悲劇到《星際大戰》中的救贖
達斯·維德,恐懼與暴政的象徵,是電影中最具標誌性的反派之一。然而,在面具之下,隱藏著悲劇、失去與最終救贖的故事。本文探討安納金·天行者轉變為達斯·維德的過程,分析他在《星際大戰》系列中定義其道路的關鍵時刻、情感與選擇。關鍵要點安納金·天行者的早年與絕地訓練受到情感掙扎與深厚依附的塑造。他對失去親人的恐懼與對控制的渴望,將他推向帕爾帕廷皇帝的掌控。穆斯塔法決鬥讓他身心俱傷,確立了他作為達斯·維德的身
前OpenAI工程師分享公司文化與快速成長的見解
三週前,Calvin French-Owen,一位為OpenAI關鍵產品做出貢獻的工程師,離開了公司。他最近發表了一篇引人入勝的部落格文章,詳細描述了他在OpenAI一年的經歷,包括開發Codex的緊張努力,這是一個與Cursor和Anthropic的Claude Code競爭的編碼代理。French-Owen澄清,他的離職並非因內部衝突,而是源於他希望回歸創業生活。他之前共同創辦了Segment
AI驅動的翻譯提升全球商業溝通
在當今相互聯繫的世界中,無縫的跨語言溝通對成功至關重要。DeepL領先群雄,利用尖端人工智慧技術,簡化全球企業的多語言互動。從即時文本翻譯到先進的語音解決方案,DeepL改變了企業與全球客戶、合作夥伴和團隊的互動方式。主要亮點DeepL利用AI優化跨語言商業溝通。其AI優先考慮翻譯的精確性、品質和安全性。DeepL支援文本和語音翻譯,提升國際運營。DeepL的全球影響力現已擴展至165個新市場。探
評論 (50)
0/200
GaryWalker
2025-04-24 10:12:13
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
2025-04-20 23:53:48
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
2025-04-16 17:13:53
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
2025-04-16 16:05:47
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
2025-04-15 15:18:40
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
DonaldLee
2025-04-15 05:25:02
I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?
0
為什麼這很重要?如果聊天機器人連新聞檢索都無法與Google媲美,就很難信任它們能準確解釋並引用這些新聞。這使得它們的回應內容,即使有連結,也變得遠不可靠。
自信地給出錯誤答案
研究人員指出,聊天機器人以「令人震驚的自信」回覆錯誤答案,幾乎不對其結果加以限定或承認知識缺口。例如,ChatGPT「從未拒絕提供答案」,儘管其200個回應中有134個是錯誤的。在所有八個工具中,Copilot是唯一拒絕回答的次數多於回應次數的工具。
報告澄清:「所有工具一致地更傾向於提供錯誤答案,而不是承認自身的局限性。」
付費層級並不更可靠
即使是像Grok-3 Search和Perplexity Pro這樣的付費高級模型,雖然比免費版本更準確,但仍自信地給出錯誤答案。這讓人們對其高昂的訂閱費用價值產生質疑。
報告解釋:「這種矛盾主要源於[機器人]傾向於提供明確但錯誤的答案,而不是直接拒絕回答問題。」「根本問題不僅在於聊天機器人的事實錯誤,還在於它們權威的對話語氣,這使得用戶難以區分準確與不準確的資訊。」
報告補充:「這種不實的自信為用戶呈現了一種潛在危險的可靠性和準確性假象。」
捏造連結
AI模型因產生幻覺而臭名昭著,但Tow研究發現,Gemini和Grok 3的幻覺頻率最高——超過一半的時間。「即使Grok正確識別了一篇文章,它也常常連接到一個捏造的URL,」報告指出,這意味著Grok可能找到正確的標題和出版商,但隨後製造出實際的文章連結。
西北大學的「新聞室中的生成式AI」計畫通過分析Comscore流量數據,證實了這種模式。他們在2024年7月至11月的研究顯示,ChatGPT在其回應中生成了205個無效URL。雖然出版物偶爾會移除報導,導致404錯誤,但研究人員指出,缺乏存檔數據表明「該模型在回應用戶查詢時,捏造了看似可信的權威新聞網站連結。」
鑑於AI搜尋引擎的採用率不斷上升——Google在2024年第四季的市場份額首次在10年內跌破90%——這些發現令人不安。該公司上週還為某些用戶推出了AI Mode,儘管其AI Overviews廣受批評,仍用聊天機器人取代了常規搜尋。
隨著每週約4億用戶湧向ChatGPT,其引用的不可靠性和扭曲使它和其他熱門AI工具成為潛在的錯誤資訊引擎,即便它們從嚴格事實查核的新聞網站提取內容。
Tow報告得出結論,AI工具錯誤引用來源或不正確呈現其工作,可能會對出版商的聲譽造成反效果。
無視被阻擋的爬蟲
對出版商來說,情況更加惡化,因為Tow報告發現,幾個聊天機器人仍能從使用機器人排除協議(REP)或robots.txt阻止其爬蟲的出版商那裡檢索文章。然而,矛盾的是,聊天機器人無法正確回答關於允許它們訪問內容的網站的查詢。
報告指出:「Perplexity Pro在這方面是最嚴重的違規者,正確識別了近三分之一的九十篇它不應有權訪問的文章摘錄。」
這表明,AI公司不僅仍在無視REP——正如Perplexity和其他公司去年被發現的那樣——而且與它們簽訂任何許可協議的出版商也無法保證被正確引用。
哥倫比亞的報告只是更大問題的一個症狀。「新聞室中的生成式AI」報告還發現,聊天機器人很少將流量導向它們提取資訊的新聞網站,其他報告也證實了這一點。從2024年7月至11月,Perplexity僅將7%的轉介流量傳遞給新聞網站,而ChatGPT僅傳遞3%。相比之下,AI工具傾向於偏好像Scribd.com、Coursera和與大學相關的教育資源,將多達30%的流量導向這些資源。
底線:原始報導仍然是比AI工具反芻的內容更可靠的新聞來源。在接受它們提供的事實之前,務必驗證連結,並運用你的批判性思維和媒體素養技能來評估回應。




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓




I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?












