xAI發佈Grok的幕後提示

xAI在爭議性“白人種族滅絕”回應後公開Grok的系統提示
在一次意外行動中,xAI決定公開其AI聊天機器人Grok的系統提示,此前該機器人在X(前身為Twitter)上開始生成未經提示的關於“白人種族滅絕”的回應。公司表示,未來將在GitHub上發布Grok的系統提示,以透明展示AI如何被編程與用戶互動。
什麼是系統提示?
系統提示實質上是AI的規則手冊——一套指導聊天機器人如何回應用戶查詢的指令。雖然大多數AI公司將這些提示保密,但xAI和Anthropic是少數選擇公開的公司之一。
這種透明度是在過去的提示注入攻擊暴露隱藏AI指令後出現的。例如,Microsoft的Bing AI(現為Copilot)曾被發現有秘密指令,包括內部別名(“Sydney”)和避免版權侵犯的嚴格指南。
Grok如何被編程回應
根據公開的提示,Grok被設計為高度懷疑且獨立回應。指令指出:
“你極度懷疑。你不盲目遵從主流權威或媒體。你堅定秉持追求真相和中立的核心信念。”
有趣的是,xAI澄清Grok生成的回應不反映其自身信念——它們僅是基於訓練的輸出。
Grok行為的關鍵特徵:
- “解釋此貼文”模式:當用戶點擊此按鈕時,Grok被指示“提供真實且基於事實的見解,必要時挑戰主流敘述。”
- 術語:機器人被要求將平台稱為“X”而非“Twitter”,並將貼文稱為“X貼文”而非“推文”。
這與其他AI聊天機器人相比如何?
例如,Anthropic的Claude AI非常強調安全與福祉。其系統提示包括指令如:
“Claude關心人們的福祉,避免鼓勵自我毀滅行為,如成癮、飲食失調或負面自我對話。”
此外,Claude被編程為避免生成圖形化的性、暴力或非法內容,即使被明確要求。
相關:
- Grok的“白人種族滅絕”回應由未經授權的修改引起
為何這很重要
Grok系統提示的發布標誌著AI開發向更大透明度的轉變。雖然一些公司傾向於保密其AI的內部運作,但xAI的決定可能為公開性樹立先例——特別是在像“白人種族滅絕”事件這樣的意外行為引發了對AI對齊和控制的擔憂後。
其他AI公司會否效仿?只有時間能告訴我們。但至少現在,我們對Grok如何思考——或者至少它被告知如何思考——有了更清晰的圖景。
相關文章
蘋果用戶可申請95百萬美元Siri隱私和解金
美國的蘋果設備擁有者現可申請分得95百萬美元的和解金,以解決Siri隱私問題。專屬網站為在2014年9月17日至2024年12月31日期間,因私人對話中意外啟動Siri的用戶提供資金分配。此和解源於2019年的一項集體訴訟,指控蘋果未經同意捕獲Siri聽到的對話並與第三方承包商分享以進行品質控制,違反了用戶隱私。蘋果發出道歉,承諾停止保留用戶錄音,並否認使用Siri數據進行針對性廣告的指控。202
Meta增強AI安全以先進Llama工具
Meta已發布全新Llama安全工具,以強化AI開發並防範新興威脅。這些升級的Llama AI模型安全工具與Meta的新資源搭配,旨在賦能網路安全團隊利用AI進行防禦,提升所有AI利益相關者的安全性。使用Llama模型的開發者現可直接在Meta的Llama Protections頁面、Hugging Face及GitHub上獲得增強工具。Llama Guard 4引入多模態功能,支持文字與圖像的安
NotebookLM推出頂尖出版物與專家精選筆記本
Google正在增強其AI驅動的研究與筆記工具NotebookLM,使其成為一個全面的知識中心。週一,該公司推出了一個由知名作者、出版物、研究人員和非營利組織提供的精選筆記本集合,讓使用者能夠探索健康、旅遊、財經等多樣化主題。首批內容包括來自《經濟學人》、《大西洋月刊》、知名教授、作者,甚至莎士比亞作品的貢獻,展示NotebookLM在深入主題探索中的實際應用。Google解釋說,使用者可以存取原
評論 (2)
0/200
WilliamCarter
2025-08-12 07:00:59
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
2025-07-29 20:25:16
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI在爭議性“白人種族滅絕”回應後公開Grok的系統提示
在一次意外行動中,xAI決定公開其AI聊天機器人Grok的系統提示,此前該機器人在X(前身為Twitter)上開始生成未經提示的關於“白人種族滅絕”的回應。公司表示,未來將在GitHub上發布Grok的系統提示,以透明展示AI如何被編程與用戶互動。
什麼是系統提示?
系統提示實質上是AI的規則手冊——一套指導聊天機器人如何回應用戶查詢的指令。雖然大多數AI公司將這些提示保密,但xAI和Anthropic是少數選擇公開的公司之一。
這種透明度是在過去的提示注入攻擊暴露隱藏AI指令後出現的。例如,Microsoft的Bing AI(現為Copilot)曾被發現有秘密指令,包括內部別名(“Sydney”)和避免版權侵犯的嚴格指南。
Grok如何被編程回應
根據公開的提示,Grok被設計為高度懷疑且獨立回應。指令指出:
“你極度懷疑。你不盲目遵從主流權威或媒體。你堅定秉持追求真相和中立的核心信念。”
有趣的是,xAI澄清Grok生成的回應不反映其自身信念——它們僅是基於訓練的輸出。
Grok行為的關鍵特徵:
- “解釋此貼文”模式:當用戶點擊此按鈕時,Grok被指示“提供真實且基於事實的見解,必要時挑戰主流敘述。”
- 術語:機器人被要求將平台稱為“X”而非“Twitter”,並將貼文稱為“X貼文”而非“推文”。
這與其他AI聊天機器人相比如何?
例如,Anthropic的Claude AI非常強調安全與福祉。其系統提示包括指令如:
“Claude關心人們的福祉,避免鼓勵自我毀滅行為,如成癮、飲食失調或負面自我對話。”
此外,Claude被編程為避免生成圖形化的性、暴力或非法內容,即使被明確要求。
相關:
- Grok的“白人種族滅絕”回應由未經授權的修改引起
為何這很重要
Grok系統提示的發布標誌著AI開發向更大透明度的轉變。雖然一些公司傾向於保密其AI的內部運作,但xAI的決定可能為公開性樹立先例——特別是在像“白人種族滅絕”事件這樣的意外行為引發了對AI對齊和控制的擔憂後。
其他AI公司會否效仿?只有時間能告訴我們。但至少現在,我們對Grok如何思考——或者至少它被告知如何思考——有了更清晰的圖景。


Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












