选项
首页
新闻
前奈政策负责人大满贯公司用于改变AI安全叙事

前奈政策负责人大满贯公司用于改变AI安全叙事

2025-04-10
101

前奈政策负责人大满贯公司用于改变AI安全叙事

一位前OpenAI政策研究员Miles Brundage最近访问社交媒体,呼吁Openai,以寻求其“重写历史”的方法,以部署潜在风险的AI系统。本周,OpenAI发布了一份文件,详细介绍了其目前关于AI安全和一致性的立场,即确保AI系统以可预测且有益的方式行动的过程。在其中,Openai描述了AGI或AI系统能够执行任何任务的AI系统的发展,是一种“连续路径”,涉及从AI技术中“迭代部署和学习”。 OpenAI在文档中说:“在不连续的世界中,安全课程来自对当今的系统,相对于它们的明显力量的谨慎处理,这是我们为[我们的AI模型] GPT-2采取的方法。” “现在,我们将第一个AGI视为沿着连续世界中有用性[...]的一系列系统的一个点,使下一个系统安全和有益的方式就是向当前系统学习。”但是,Brundage认为,GPT-2采取的谨慎方法完全符合Openai当前的迭代部署策略。 Brundage在X上发布了Brundage。“ Openai的发布GPT-2(我参与了GPT-2),与Openai当前的迭代部署哲学相关。 Brundage于2018年加入Openai,成为一名研究科学家,后来成为该公司的政策研究负责人,他专注于在Openai的“ AGI Revernessions”团队中负责地部署Chatgpt等语言生成系统。 Openai于2019年宣布的GPT-2是Chatgpt背后AI系统的先驱。它可以回答问题,总结文章,并生成有时与人写作没有区别的文本。尽管GPT-2现在似乎是基本的,但这当时是开创性的。由于对潜在滥用的担忧,OpenAI最初拒绝了该模型的源代码,而是允许精选的新闻媒体限制对演示的访问。该决定收到了AI社区的混合反馈。有人认为,与GPT-2相关的风险被夸大了,没有证据支持Openai对滥用的担忧。以AI为中心的出版物该渐变甚至发表了一封公开的信,敦促Openai发行该模型,理由是其技术意义。 Openai最终在宣布后六个月发布了GPT-2的部分版本,随后几个月后进行了完整的系统。 Brundage认为这是正确的方法。他在X上说:“ [GPT-2版本]的哪一部分是由认为Agi是不连续的或以AGI为不连续的。 Brundage担心Openai的文件旨在建立高度的举证责任,除非有压倒性的危险证据,否则担心被视为警报者。他发现这种心态对于先进的AI系统“非常危险”。 Brundage补充说:“如果我仍在Openai工作,我会问为什么要以这种方式写这件[文档],以及以这种方式谨慎的态度来实现的目标。” Openai过去曾面临批评,即优先考虑“闪亮的产品”,而不是安全发行以超过竞争对手。去年,该公司解散了其AGI准备团队,几位AI安全和政策研究人员留给了竞争对手公司。中国AI Lab DeepSeek的R1型号与竞争性格局加剧了,该模型公开可用,并与OpenAI的O1“推理”模型匹配了关键基准测试,引起了全球关注。 Openai首席执行官Sam Altman承认,DeepSeek已缩小Openai的技术领先优势,促使Openai考虑加速其发布时间表。据报道,随着Openai每年损失数十亿美元的损失,到2026年将损失提高到140亿美元,更快的产品发行周期可以提高短期利润,但可能会损害长期安全性。像Brundage这样的专家正在质疑这种权衡是否值得。
相关文章
非营利组织利用人工智能代理促进慈善筹款工作 非营利组织利用人工智能代理促进慈善筹款工作 当大型科技公司将人工智能 "代理 "作为企业生产力的助推器进行推广时,一家非营利组织正在展示它们在社会公益方面的潜力。由开放慈善组织(Open Philanthropy)支持的慈善研究机构赛智未来(Sage Future)最近进行了一项创新实验,展示了人工智能模型如何在慈善筹款方面进行合作。该非营利组织在一个模拟数字环境中设置了四个先进的人工智能模型--OpenAI 的 GPT-4o 和 o1
顶级人工智能实验室警告人类正在失去理解人工智能系统的能力 顶级人工智能实验室警告人类正在失去理解人工智能系统的能力 来自 OpenAI、谷歌 DeepMind、Anthropic 和 Meta 的研究人员前所未有地团结起来,搁置竞争分歧,就负责任的人工智能发展发出集体警告。来自这些通常相互竞争的组织的 40 多名顶尖科学家共同撰写了一篇开创性的研究论文,强调确保人工智能决策过程透明度的窗口正在迅速关闭。这次合作的重点是现代人工智能系统的一个关键发展--它们在生成最终输出之前,能够以人类可读的语言阐明推理过程的新
ChatGPT 添加了 Google Drive 和 Dropbox 集成,用于文件访问 ChatGPT 添加了 Google Drive 和 Dropbox 集成,用于文件访问 ChatGPT 通过新的企业功能提高生产力OpenAI 推出两项强大的新功能,将 ChatGPT 转变为全面的企业生产力工具:自动会议记录和无缝云存储集成。革命性的记录功能新推出的 "记录模式 "可自动转录和分析以下内容:重要的商务会议创造性的头脑风暴会议 个人思维过程这一高级功能目前仅面向 ChatGPT 团队用户(每用户每月 25 美元),可提供准确、有时间戳的记
评论 (36)
0/200
LiamCarter
LiamCarter 2025-08-05 15:00:59

It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?

TimothyMitchell
TimothyMitchell 2025-04-21 01:18:15

マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍

JackPerez
JackPerez 2025-04-17 07:40:06

A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍

StevenGonzalez
StevenGonzalez 2025-04-17 04:38:43

마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏

AlbertWilson
AlbertWilson 2025-04-17 03:07:30

Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏

DonaldBrown
DonaldBrown 2025-04-16 15:05:24

Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨

返回顶部
OR