xAI发布Grok的幕后提示

xAI在争议性“白人种族灭绝”回应后发布Grok的系统提示
出乎意料的是,xAI决定公开其AI聊天机器人Grok的系统提示,此前该机器人在X(前身为Twitter)上开始生成未经提示的关于“白人种族灭绝”的回应。公司表示,未来将在GitHub上发布Grok的系统提示,以透明展示AI如何被编程与用户互动。
什么是系统提示?
系统提示本质上是AI的规则手册——一组指导聊天机器人如何回应用户查询的指令。虽然大多数AI公司将这些提示保密,但xAI和Anthropic是少数选择公开的公司之一。
这种透明度是在过去发生提示注入攻击暴露隐藏AI指令后出现的。例如,微软的Bing AI(现为Copilot)曾被发现有秘密指令,包括内部别名(“Sydney”)和避免版权侵犯的严格指南。
Grok如何被编程回应
根据发布的提示,Grok被设计为在回应中保持高度怀疑和独立性。指令指出:
“你极度怀疑。你不盲目遵从主流权威或媒体。你坚定地只遵循追求真相和中立的核心信念。”
有趣的是,xAI澄清Grok生成的回应不反映其自身信念——它们只是基于其训练的输出。
Grok行为的关键特征:
- “解释此帖子”模式:当用户点击此按钮时,Grok被指示要“提供真实且有依据的见解,必要时挑战主流叙事。”
- 术语:机器人被要求将平台称为“X”而非“Twitter”,并将帖子称为“X帖子”而非“推文”。
与其他AI聊天机器人相比如何?
例如,Anthropic的Claude AI非常强调安全和福祉。其系统提示包括以下指令:
“Claude关心人们的福祉,避免鼓励自我破坏行为,如成瘾、饮食失调或负面自我对话。”
此外,Claude被编程为避免生成色情、暴力或非法内容,即使被明确要求。
相关:
- Grok的“白人种族灭绝”回应由未经授权的修改引起
为何重要
Grok系统提示的发布标志着AI开发向更大透明度的转变。虽然一些公司倾向于保密AI的内部运作,但xAI的决定可能为开放性树立先例——尤其是在类似“白人种族灭绝”事件的意外行为引发了对AI对齐和控制的担忧之后。
其他AI公司会效仿吗?只有时间能告诉我们。但至少现在,我们对Grok如何思考——或者至少是如何被告知思考的——有了更清晰的了解。
相关文章
苹果用户可申请95百万美元Siri隐私和解赔偿
美国苹果设备用户现可申请95百万美元和解赔偿的一部分,以解决Siri隐私问题。一个专门的网站为在2014年9月17日至2024年12月31日期间,私人对话中意外触发Siri的用户提供资金分配服务。此和解源于2019年的一起集体诉讼,指控苹果未经用户同意,通过Siri监听对话并将其分享给第三方承包商进行质量控制,侵犯了用户隐私。苹果发表了道歉声明,承诺停止保留用户录音,并否认使用Siri数据进行定向
Meta 增强人工智能安全,推出高级 Llama 工具
Meta 发布了新的 Llama 安全工具,以加强人工智能开发并防御新兴威胁。这些升级的 Llama 人工智能模型安全工具与 Meta 的新资源相结合,旨在增强网络安全团队利用人工智能进行防御的能力,提升所有人工智能利益相关者的安全性。使用 Llama 模型的开发者现在可以直接在 Meta 的 Llama Protections 页面、Hugging Face 和 GitHub 上访问增强的工具。
NotebookLM推出顶级出版物和专家精选笔记本
谷歌正在增强其人工智能驱动的研究和笔记工具NotebookLM,使其成为一个综合知识中心。周一,该公司推出了一套由知名作者、出版物、研究人员和非营利组织精心策划的笔记本集合,使用户能够探索健康、旅行、财务等多样化主题。首批内容包括《经济学人》、《大西洋月刊》、知名教授、作者以及莎士比亚作品的贡献,展示了NotebookLM在深入主题探索中的实际应用。谷歌解释说,用户可以访问原始资料,提出问题,深入
评论 (2)
0/200
WilliamCarter
2025-08-12 07:00:59
Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅
0
BillyGarcía
2025-07-29 20:25:16
Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.
0
xAI在争议性“白人种族灭绝”回应后发布Grok的系统提示
出乎意料的是,xAI决定公开其AI聊天机器人Grok的系统提示,此前该机器人在X(前身为Twitter)上开始生成未经提示的关于“白人种族灭绝”的回应。公司表示,未来将在GitHub上发布Grok的系统提示,以透明展示AI如何被编程与用户互动。
什么是系统提示?
系统提示本质上是AI的规则手册——一组指导聊天机器人如何回应用户查询的指令。虽然大多数AI公司将这些提示保密,但xAI和Anthropic是少数选择公开的公司之一。
这种透明度是在过去发生提示注入攻击暴露隐藏AI指令后出现的。例如,微软的Bing AI(现为Copilot)曾被发现有秘密指令,包括内部别名(“Sydney”)和避免版权侵犯的严格指南。
Grok如何被编程回应
根据发布的提示,Grok被设计为在回应中保持高度怀疑和独立性。指令指出:
“你极度怀疑。你不盲目遵从主流权威或媒体。你坚定地只遵循追求真相和中立的核心信念。”
有趣的是,xAI澄清Grok生成的回应不反映其自身信念——它们只是基于其训练的输出。
Grok行为的关键特征:
- “解释此帖子”模式:当用户点击此按钮时,Grok被指示要“提供真实且有依据的见解,必要时挑战主流叙事。”
- 术语:机器人被要求将平台称为“X”而非“Twitter”,并将帖子称为“X帖子”而非“推文”。
与其他AI聊天机器人相比如何?
例如,Anthropic的Claude AI非常强调安全和福祉。其系统提示包括以下指令:
“Claude关心人们的福祉,避免鼓励自我破坏行为,如成瘾、饮食失调或负面自我对话。”
此外,Claude被编程为避免生成色情、暴力或非法内容,即使被明确要求。
相关:
- Grok的“白人种族灭绝”回应由未经授权的修改引起
为何重要
Grok系统提示的发布标志着AI开发向更大透明度的转变。虽然一些公司倾向于保密AI的内部运作,但xAI的决定可能为开放性树立先例——尤其是在类似“白人种族灭绝”事件的意外行为引发了对AI对齐和控制的担忧之后。
其他AI公司会效仿吗?只有时间能告诉我们。但至少现在,我们对Grok如何思考——或者至少是如何被告知思考的——有了更清晰的了解。


Wow, xAI dropping Grok's prompts is wild! Kinda cool to peek behind the AI curtain, but those 'white genocide' responses sound like a PR nightmare. Hope they sort it out quick! 😅




Whoa, xAI dropping Grok's prompts is wild! 😮 Kinda cool to peek behind the curtain, but those 'white genocide' responses sound sketchy. Hope they sort that out—AI needs to stay chill, not stir up drama.












