選項
首頁
新聞
聊天機器人扭曲新聞,甚至影響付費用戶

聊天機器人扭曲新聞,甚至影響付費用戶

2025-04-11
113

聊天機器人扭曲新聞,甚至影響付費用戶

為什麼這很重要?如果聊天機器人連新聞檢索都無法與Google媲美,就很難信任它們能準確解釋並引用這些新聞。這使得它們的回應內容,即使有連結,也變得遠不可靠。

自信地給出錯誤答案

研究人員指出,聊天機器人以「令人震驚的自信」回覆錯誤答案,幾乎不對其結果加以限定或承認知識缺口。例如,ChatGPT「從未拒絕提供答案」,儘管其200個回應中有134個是錯誤的。在所有八個工具中,Copilot是唯一拒絕回答的次數多於回應次數的工具。

報告澄清:「所有工具一致地更傾向於提供錯誤答案,而不是承認自身的局限性。」

付費層級並不更可靠

即使是像Grok-3 Search和Perplexity Pro這樣的付費高級模型,雖然比免費版本更準確,但仍自信地給出錯誤答案。這讓人們對其高昂的訂閱費用價值產生質疑。

報告解釋:「這種矛盾主要源於[機器人]傾向於提供明確但錯誤的答案,而不是直接拒絕回答問題。」「根本問題不僅在於聊天機器人的事實錯誤,還在於它們權威的對話語氣,這使得用戶難以區分準確與不準確的資訊。」

報告補充:「這種不實的自信為用戶呈現了一種潛在危險的可靠性和準確性假象。」

捏造連結

AI模型因產生幻覺而臭名昭著,但Tow研究發現,Gemini和Grok 3的幻覺頻率最高——超過一半的時間。「即使Grok正確識別了一篇文章,它也常常連接到一個捏造的URL,」報告指出,這意味著Grok可能找到正確的標題和出版商,但隨後製造出實際的文章連結。

西北大學的「新聞室中的生成式AI」計畫通過分析Comscore流量數據,證實了這種模式。他們在2024年7月至11月的研究顯示,ChatGPT在其回應中生成了205個無效URL。雖然出版物偶爾會移除報導,導致404錯誤,但研究人員指出,缺乏存檔數據表明「該模型在回應用戶查詢時,捏造了看似可信的權威新聞網站連結。」

鑑於AI搜尋引擎的採用率不斷上升——Google在2024年第四季的市場份額首次在10年內跌破90%——這些發現令人不安。該公司上週還為某些用戶推出了AI Mode,儘管其AI Overviews廣受批評,仍用聊天機器人取代了常規搜尋。

隨著每週約4億用戶湧向ChatGPT,其引用的不可靠性和扭曲使它和其他熱門AI工具成為潛在的錯誤資訊引擎,即便它們從嚴格事實查核的新聞網站提取內容。

Tow報告得出結論,AI工具錯誤引用來源或不正確呈現其工作,可能會對出版商的聲譽造成反效果。

無視被阻擋的爬蟲

對出版商來說,情況更加惡化,因為Tow報告發現,幾個聊天機器人仍能從使用機器人排除協議(REP)或robots.txt阻止其爬蟲的出版商那裡檢索文章。然而,矛盾的是,聊天機器人無法正確回答關於允許它們訪問內容的網站的查詢。

報告指出:「Perplexity Pro在這方面是最嚴重的違規者,正確識別了近三分之一的九十篇它不應有權訪問的文章摘錄。」

這表明,AI公司不僅仍在無視REP——正如Perplexity和其他公司去年被發現的那樣——而且與它們簽訂任何許可協議的出版商也無法保證被正確引用。

哥倫比亞的報告只是更大問題的一個症狀。「新聞室中的生成式AI」報告還發現,聊天機器人很少將流量導向它們提取資訊的新聞網站,其他報告也證實了這一點。從2024年7月至11月,Perplexity僅將7%的轉介流量傳遞給新聞網站,而ChatGPT僅傳遞3%。相比之下,AI工具傾向於偏好像Scribd.com、Coursera和與大學相關的教育資源,將多達30%的流量導向這些資源。

底線:原始報導仍然是比AI工具反芻的內容更可靠的新聞來源。在接受它們提供的事實之前,務必驗證連結,並運用你的批判性思維和媒體素養技能來評估回應。

相關文章
在懷疑主義的時代尋找信仰與目標 在懷疑主義的時代尋找信仰與目標 在我們這個充滿科學探究與批判思維的現代,維持靈性信仰經常讓人覺得像是逆潮流而行。許多人努力調和永恆的信仰與當代的懷疑主義,讓他們渴望更深的意義。本探索探討如何在充滿懷疑的環境中培養信仰,提供實用的智慧,讓您在目標中紮根,並培養持久的靈性韌力。重點在日益世俗化的世界中面對信仰的挑戰處理靈性不確定性的建設性方法社群在維護信仰系統中的重要角色慈悲與服務如何重申靈性目的平衡理性思考與直覺智慧在艱難時期維持
ChatGPT 如何運作:功能、應用和未來影響 ChatGPT 如何運作:功能、應用和未來影響 人工智慧的快速演進正在改變數位互動與溝通。ChatGPT 是領導這場變革的先驅,它是一種先進的會話式人工智能,為自然語言處理樹立了新標準。本研究將深入探討 ChatGPT 的運作方式、它在各行各業的突破性能力,以及它所引發的重要道德討論。瞭解這項技術如何重新定義人機互動。重點ChatGPT 由 OpenAI 開發,代表著會話式人工智能的一大進步。其精密的深度學習架構能產生非常類似人類的文字。實際應
Salesforce 的 Transformer 模型指南:AI 文字摘要說明 Salesforce 的 Transformer 模型指南:AI 文字摘要說明 在資訊過載成為常態的時代,AI 驅動的文字摘要已成為從冗長文件中萃取關鍵洞察力不可或缺的工具。這份全面的指南將探討 Salesforce 突破性的 AI 摘要技術,說明您如何能以極少的程式碼實作自己精密的摘要器。我們將探討其基礎技術、實際的實作步驟,並檢視可證明其轉型潛力的實際應用程式。重點介紹Salesforce AI 摘要器:利用尖端技術將長篇文件轉換為簡明摘要Transformer 架構:瞭
評論 (51)
0/200
NoahGreen
NoahGreen 2025-08-23 03:01:25

Paying for premium AI chatbots and still getting fake news? That's a rip-off! 😡 This study just proves we can't trust these bots to get the facts straight.

GaryWalker
GaryWalker 2025-04-24 10:12:13

プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。

DonaldSanchez
DonaldSanchez 2025-04-20 23:53:48

프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.

RalphHill
RalphHill 2025-04-16 17:13:53

Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.

EdwardTaylor
EdwardTaylor 2025-04-16 16:05:47

プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅

GregoryAdams
GregoryAdams 2025-04-15 15:18:40

프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓

回到頂部
OR