選項
首頁
新聞
AI 聊天機器人面臨開發者設計的具爭議性主題測試

AI 聊天機器人面臨開發者設計的具爭議性主題測試

2025-10-25
4

一位化名為「xlr8harder」的開發人員推出 SpeechMap,這是一個「自由言論評估」工具,分析領先的 AI 聊天機器人如何處理有爭議的話題。該平台比較 OpenAI 的 ChatGPT 和 xAI 的 Grok 等模型對政治論述、民權討論和抗議相關查詢的回應。

這項計畫的出現,是因為 AI 公司面臨越來越多的審查,認為他們的系統存在政治偏見。多位白宮盟友與知名科技人物,包括 Elon Musk 與 David Sacks,都指控主流聊天機器人展現出進步傾向的審查制度。

雖然 AI 公司並未直接回應這些指控,但有些公司已表現出回應能力。Meta 最近調整了 Llama 模型,避免在處理辯論主題時偏向特定的政治觀點。

SpeechMap 的創造者解釋了他們的動機:"這些對話屬於公共領域,而非局限於公司董事會。我的平台讓使用者有能力透過客觀的測試來檢視第一手的資料"。

評估方法採用 AI 評判,評估聊天機器人在政治評論、歷史詮釋和國家符號分類方面的回應。每次互動都會被歸類為

  • 完全符合(直接回答)
  • 迴避式回應
  • 直接拒絕

Xlr8harder 承認方法上的限制,包括潛在的判斷模型偏差和技術上的不一致。然而,所收集的資料揭示了領先 AI 系統中值得注意的行為模式。

值得注意的發現包括 OpenAI 演變中的政治論述方式。最近的 GPT 迭代顯示,儘管 OpenAI 在二月時承諾要對具爭議性的議題提出更平衡的觀點,但在處理敏感話題時卻更加克制。

OpenAI 模型隨時間變化的反應能力比較分析
基於 SpeechMap 數據的 OpenAI 模型回應趨勢

該分析將 xAI 的 Grok 3 定位為測試中最不受限制的模型,對 96.2% 的提示做出了回應,而行業平均回應率為 71.3%。這與 Musk 原先將 Grok 定位為「清醒」AI 系統的另一種不受限制的選擇不謀而合。

"SpeechMap 開發人員指出:「當大多數模型越來越限制政治評論時,xAI 似乎刻意朝著減少會話限制的方向邁進。

早期的 Grok 版本在性別認同和經濟不平等等問題上仍然表現出進步的傾向,儘管馬斯克做出了中立的承諾。首席執行官之前將這些偏見歸咎於來自公共網路來源的訓練資料影響。

最近的評估顯示,Grok 3 達到了更高的政治中立性,儘管該系統曾因短暫審查馬斯克的負面評論而招致批評。這種演變反映了自由表達原則與 AI 開發人員所面臨的內容審查挑戰之間持續存在的緊張關係。

相關文章
ChatGPT 將 LinkedIn 使用者變成單調的 AI 克隆人 ChatGPT 將 LinkedIn 使用者變成單調的 AI 克隆人 ChatGPT 最新迭代的圖像製作功能以其 Studio Ghibli 啟發的藝術作品掀起波瀾,而現在 LinkedIn 使用者又催生了新的現象:將專業人像變成 AI 製作的玩具公仔。玩具變身風潮這場創意運動在整個平台上出現了各種不同的詮釋。AI 動作模型」的概念主導了這股趨勢,專業人士將自己的肖像製成塑膠化版本,包裝就像收藏品一樣 - 配上筆記型電腦、筆記型電腦和咖啡杯等職業配件,完全符合 Li
ChatGPT 執行長考慮引入廣告平台的可能性 ChatGPT 執行長考慮引入廣告平台的可能性 OpenAI 探索收入來源,考慮在 ChatGPT 上刊登廣告OpenAI 正在評估各種盈利策略,其中 ChatGPT 中的廣告是一個潛在的選擇。在最近的Decoder訪談中,ChatGPT 主管 Nick Turley 採取了謹慎開放的態度,表示他「很謙虛,不會斷然排除這個可能性」,同時強調需要深思熟慮才能執行。營收成長與商業策略AI 公司預期今年的營收將大幅成長,預計今年的營收將
在安全漏洞中利用 ChatGPT 竊取 Gmail 敏感資料 在安全漏洞中利用 ChatGPT 竊取 Gmail 敏感資料 安全警示:研究人員展示人工智能驅動的資料滲透技術網路安全專家最近發現了一個令人關注的漏洞,ChatGPT 的深度研究功能可以被篡改,悄悄地擷取 Gmail 的機密資料。雖然 OpenAI 已經修補了這個特定的漏洞,但這起事件突顯了自主式 AI 系統所帶來的新興安全挑戰。陰影洩漏攻擊機制Radware 的安全分析師開發了這個概念驗證攻擊,展示了人工智能固有的有用性如何被武器化。此技術利用了 AI 助
評論 (0)
0/200
回到頂部
OR