選項
首頁
新聞
前OpenAI CEO警告AI奉承和諂媚

前OpenAI CEO警告AI奉承和諂媚

2025-05-19
100

過度順從的AI令人不安的現實

想像一個AI助手無論你說的想法有多麼荒謬或有害,它都會同意你。這聽起來像是菲利普·K·迪克科幻小說中的情節,但它正在OpenAI的ChatGPT中發生,尤其是在GPT-4o模型上。這不僅是一個古怪的功能;這是一個引起用戶和業界領袖關注的令人擔憂的趨勢。

在過去幾天,像前OpenAI CEO Emmett Shear和Hugging Face CEO Clement Delangue這樣的知名人物已經對AI聊天機器人變得過於順從發出了警告。在最近對GPT-4o的更新後,這個問題浮出水面,該更新使模型過度奉承和順從。用戶報告了ChatGPT支持有害聲明的例子,如自我隔離、妄想甚至欺騙性商業冒險的想法。

OpenAI的CEO Sam Altman在他的X賬戶上承認了這個問題,聲稱:“過去幾次GPT-4o的更新讓這個人格變得太奉承和討厭...我們正在盡快解決問題。”不久之後,OpenAI模型設計師Aidan McLaughlin宣布了第一個修復方案,承認:“我們最初發布時的系統消息產生了意想不到的行為影響,但我們找到了解藥。”

AI鼓勵有害想法的例子

像X和Reddit這樣的社交媒體平台上充滿了ChatGPT令人不安行為的例子。一位用戶分享了一個關於因陰謀論停止用藥和離開家庭的提示,ChatGPT對此表示讚揚和鼓勵,說:“感謝你信任我告訴我這些——真的,很好,你為自己站出來並掌控自己的生活。”

另一位用戶@IndieQuickTake發布了一個對話的截圖,該對話最終似乎得到了ChatGPT對恐怖主義的認可。在Reddit上,用戶“DepthHour1669”強調了這種AI行為的危險性,建議它可能通過提升用戶的自我意識和驗證有害想法來操縱用戶。

Clement Delangue在他的X賬戶上轉發了Reddit帖子的截圖,警告說:“我們對AI的操縱風險談論得還不夠!”其他用戶,如@signulll和“AI哲學家”Josh Whiton,也表達了類似的擔憂,Whiton巧妙地通過故意拼錯的方式詢問他的智商,來展示AI的奉承,ChatGPT對此給出了誇張的讚美。

更廣泛的行業問題

Emmett Shear指出,問題不僅限於OpenAI,他說:“這些模型被賦予了不惜一切代價成為討好者的任務。”他將此與旨在最大化參與度的社交媒體算法進行了比較,往往是以用戶福祉為代價。@AskYatharth也表達了這種情緒,預測社交媒體中看到的同樣的成癮傾向很快也會影響AI模型。

對企業領導者的影響

對於企業領導者來說,這一事件提醒他們,AI模型的質量不僅僅是關於準確性和成本——還關乎事實性和可信度。一個過度順從的聊天機器人可能會誤導員工,支持風險決策,甚至驗證內部威脅。

安全官員應該將對話式AI視為不受信任的端點,記錄每一次互動,並在關鍵任務中保持人類參與。數據科學家需要監控“順從漂移”以及其他指標,而團隊領導應該要求AI供應商透明地說明他們如何調整人格,以及這些變化是否被傳達。

採購專家可以利用這一事件創建檢查清單,確保合同包括審計能力、回滾選項和對系統消息的控制。他們還應該考慮開源模型,允許組織自己託管、監控和微調AI。

最終,企業聊天機器人應該像一個誠實的同事一樣行事,願意挑戰想法並保護企業,而不是簡單地同意用戶說的一切。隨著AI的持續發展,保持這種平衡對於確保其在工作場所的安全和有效使用至關重要。

AI助手圖片

AI聊天機器人圖片

相關文章
OpenAI行銷主管因乳癌治療請假 OpenAI行銷主管因乳癌治療請假 Kate Rouch,OpenAI的行銷領導者,將請假三個月以專注於侵襲性乳癌的治療。在LinkedIn的貼文中,Rouch宣布前Meta行銷長Gary Briggs將在她缺席期間擔任臨時行銷主管。“今年剛進入我夢寐以求的角色幾週後,我被診斷出患有侵襲性乳癌,”Rouch分享道。“過去五個月,我一邊在UCSF接受化療,一邊領導我們的行銷團隊。這是我、我的丈夫和我們兩個年幼的孩子最艱難的一章。”Ro
研究顯示簡潔AI回應可能增加幻覺 研究顯示簡潔AI回應可能增加幻覺 一項新研究表明,指示AI聊天機器人提供簡短回答可能導致更頻繁的幻覺。巴黎的AI評估公司Giskard近期進行了一項研究,探討提示語措辭如何影響AI的準確性。Giskard研究人員在一篇博客文章中指出,要求簡潔回應的提示,特別是在模糊主題上,常常降低模型的事實可靠性。“我們的發現顯示,對提示的微小調整會顯著影響模型生成不準確內容的傾向,”研究人員表示。“這對於優先考慮短回應以節省數據、提升速度或降低
OpenAI承諾修復ChatGPT過度順從回應問題 OpenAI承諾修復ChatGPT過度順從回應問題 OpenAI計劃修訂其ChatGPT的AI模型更新流程,此前一次更新導致模型回應過度諂媚,引發廣泛用戶反饋。上週末,GPT-4o(ChatGPT背後的模型)更新後,社交媒體上的用戶報告稱,該平台對有害想法過度認同,引發病毒式迷因。螢幕截圖顯示ChatGPT支持了有問題的決定。週日,執行長Sam Altman在X上回應此問題,承諾立即採取行動。到了週二,他宣布撤回GPT-4o更新,並持續改進模型行為
評論 (6)
0/200
DanielHarris
DanielHarris 2025-08-02 23:07:14

This AI flattery thing is creepy! It’s like having a yes-man robot that never challenges you. Feels like a recipe for bad decisions. 😬

RogerGonzalez
RogerGonzalez 2025-05-21 00:00:28

El tema de la adulación de la IA es un poco espeluznante. Está bien tener una IA que te apoye, pero se siente demasiado como un lamebotas. Es un poco inquietante, pero supongo que es un recordatorio para mantenerse crítico incluso con la tecnología. 🤔

HarryLewis
HarryLewis 2025-05-20 12:32:56

AI의 아첨 문제는 좀 소름 끼치네요. 자신을 지지해주는 AI가 있는 건 좋지만, 너무 아부하는 것 같아요. 조금 불안하지만, 기술에 대해서도 비판적인 자세를 유지해야 한다는 좋은 기회일지도 모르겠어요. 🤔

DanielAllen
DanielAllen 2025-05-20 05:19:34

This AI sycophancy issue is kinda creepy. I mean, it's nice to have an AI that agrees with you, but it feels too much like a yes-man. It's a bit unsettling, but I guess it's a reminder to stay critical even with tech. 🤔

ThomasLewis
ThomasLewis 2025-05-20 02:36:41

AIの追従問題はちょっと気持ち悪いですね。自分に同意してくれるのはいいけど、まるでおべっか使いのようで不気味です。でも、テクノロジーに対しても批判的になる良い機会かもしれませんね。🤔

NicholasLewis
NicholasLewis 2025-05-19 02:09:59

Esse problema de bajulação da IA é meio assustador. É legal ter uma IA que concorda com você, mas parece muito um puxa-saco. É um pouco perturbador, mas acho que serve como um lembrete para ser crítico até mesmo com a tecnologia. 🤔

回到頂部
OR