选项
首页
新闻
前奈政策负责人大满贯公司用于改变AI安全叙事

前奈政策负责人大满贯公司用于改变AI安全叙事

2025-04-10
98

前奈政策负责人大满贯公司用于改变AI安全叙事

一位前OpenAI政策研究员Miles Brundage最近访问社交媒体,呼吁Openai,以寻求其“重写历史”的方法,以部署潜在风险的AI系统。本周,OpenAI发布了一份文件,详细介绍了其目前关于AI安全和一致性的立场,即确保AI系统以可预测且有益的方式行动的过程。在其中,Openai描述了AGI或AI系统能够执行任何任务的AI系统的发展,是一种“连续路径”,涉及从AI技术中“迭代部署和学习”。 OpenAI在文档中说:“在不连续的世界中,安全课程来自对当今的系统,相对于它们的明显力量的谨慎处理,这是我们为[我们的AI模型] GPT-2采取的方法。” “现在,我们将第一个AGI视为沿着连续世界中有用性[...]的一系列系统的一个点,使下一个系统安全和有益的方式就是向当前系统学习。”但是,Brundage认为,GPT-2采取的谨慎方法完全符合Openai当前的迭代部署策略。 Brundage在X上发布了Brundage。“ Openai的发布GPT-2(我参与了GPT-2),与Openai当前的迭代部署哲学相关。 Brundage于2018年加入Openai,成为一名研究科学家,后来成为该公司的政策研究负责人,他专注于在Openai的“ AGI Revernessions”团队中负责地部署Chatgpt等语言生成系统。 Openai于2019年宣布的GPT-2是Chatgpt背后AI系统的先驱。它可以回答问题,总结文章,并生成有时与人写作没有区别的文本。尽管GPT-2现在似乎是基本的,但这当时是开创性的。由于对潜在滥用的担忧,OpenAI最初拒绝了该模型的源代码,而是允许精选的新闻媒体限制对演示的访问。该决定收到了AI社区的混合反馈。有人认为,与GPT-2相关的风险被夸大了,没有证据支持Openai对滥用的担忧。以AI为中心的出版物该渐变甚至发表了一封公开的信,敦促Openai发行该模型,理由是其技术意义。 Openai最终在宣布后六个月发布了GPT-2的部分版本,随后几个月后进行了完整的系统。 Brundage认为这是正确的方法。他在X上说:“ [GPT-2版本]的哪一部分是由认为Agi是不连续的或以AGI为不连续的。 Brundage担心Openai的文件旨在建立高度的举证责任,除非有压倒性的危险证据,否则担心被视为警报者。他发现这种心态对于先进的AI系统“非常危险”。 Brundage补充说:“如果我仍在Openai工作,我会问为什么要以这种方式写这件[文档],以及以这种方式谨慎的态度来实现的目标。” Openai过去曾面临批评,即优先考虑“闪亮的产品”,而不是安全发行以超过竞争对手。去年,该公司解散了其AGI准备团队,几位AI安全和政策研究人员留给了竞争对手公司。中国AI Lab DeepSeek的R1型号与竞争性格局加剧了,该模型公开可用,并与OpenAI的O1“推理”模型匹配了关键基准测试,引起了全球关注。 Openai首席执行官Sam Altman承认,DeepSeek已缩小Openai的技术领先优势,促使Openai考虑加速其发布时间表。据报道,随着Openai每年损失数十亿美元的损失,到2026年将损失提高到140亿美元,更快的产品发行周期可以提高短期利润,但可能会损害长期安全性。像Brundage这样的专家正在质疑这种权衡是否值得。
相关文章
前OpenAI工程师分享公司文化与快速增长的见解 前OpenAI工程师分享公司文化与快速增长的见解 三周前,为OpenAI关键产品做出贡献的工程师Calvin French-Owen离开公司。他最近发表了一篇引人入胜的博客,详细描述了在OpenAI的一年,包括开发Codex的紧张努力,Codex是一个与Cursor和Anthropic的Claude Code竞争的编码代理。French-Owen澄清,他的离开并非因内部冲突,而是源于回归创业生活的愿望。他之前共同创立了Segment,一家2020
苹果用户可申请95百万美元Siri隐私和解赔偿 苹果用户可申请95百万美元Siri隐私和解赔偿 美国苹果设备用户现可申请95百万美元和解赔偿的一部分,以解决Siri隐私问题。一个专门的网站为在2014年9月17日至2024年12月31日期间,私人对话中意外触发Siri的用户提供资金分配服务。此和解源于2019年的一起集体诉讼,指控苹果未经用户同意,通过Siri监听对话并将其分享给第三方承包商进行质量控制,侵犯了用户隐私。苹果发表了道歉声明,承诺停止保留用户录音,并否认使用Siri数据进行定向
谷歌发布面向生产环境的Gemini 2.5 AI模型,挑战企业市场中的OpenAI 谷歌发布面向生产环境的Gemini 2.5 AI模型,挑战企业市场中的OpenAI 谷歌周一加码其AI战略,推出面向企业使用的先进Gemini 2.5模型,并引入成本效益更高的变体,以在价格和性能上展开竞争。这家隶属于Alphabet的公司将其旗舰AI模型——Gemini 2.5 Pro和Gemini 2.5 Flash——从测试阶段提升至全面可用,展示其在关键业务应用中的准备就绪。同时,谷歌推出了Gemini 2.5 Flash-Lite,定位为高容量任务中最具预算友好性的选择
评论 (36)
0/200
LiamCarter
LiamCarter 2025-08-05 15:00:59

It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?

TimothyMitchell
TimothyMitchell 2025-04-21 01:18:15

マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍

JackPerez
JackPerez 2025-04-17 07:40:06

A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍

StevenGonzalez
StevenGonzalez 2025-04-17 04:38:43

마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏

AlbertWilson
AlbertWilson 2025-04-17 03:07:30

Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏

DonaldBrown
DonaldBrown 2025-04-16 15:05:24

Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨

返回顶部
OR