元オペナイポリシーリードAIの安全性の物語を変更したことをリードしています

元Openaiの政策研究者であるMiles Brundageは最近、ソーシャルメディアに、潜在的にリスクの高いAIシステムを展開するアプローチの「歴史を書き直す」試みと見ているものについてOpenaiを呼びかけました。今週、Openaiは、AIの安全性とアラインメントに関する現在のスタンス、AIシステムを予測可能かつ有益な方法で確保するプロセスを詳述したドキュメントをリリースしました。その中で、Openaiは、AIテクノロジーから「繰り返し展開および学習」する「連続的なパス」として、人間ができるあらゆるタスクができるAGIまたはAIシステムの開発を説明しました。 「不連続な世界[...]安全レッスンは、見かけの力に比べて最大の注意を払って今日のシステムを扱うことから来ています。これは、[AIモデル] GPT-2にとったアプローチです」とOpenaiは文書に述べています。 「私たちは今、最初のAGIを、継続的な世界で有用性を高める一連のシステムに沿った1つのポイントに沿っていると考えています。次のシステムを安全で有益なものにする方法は、現在のシステムから学ぶことです。」しかし、Brundageは、GPT-2で取られた慎重なアプローチは、Openaiの現在の反復展開戦略と完全に一致していると主張しています。 「私が関与していたGPT-2のOpenaiのリリースは、Xに投稿されたBrundageが投稿したBrundageは、Openaiの現在の繰り返し展開哲学と100%一貫していました。「モデルは段階的にリリースされ、各ステップでレッスンが共有されました。 2018年に研究科学者としてOpenaiに入社し、後にOpenaiの「AGI Readiness」チームに携わっている間、ChatGPTのような言語生成システムの責任ある展開に焦点を当てたBrundageが同社の政策研究責任者になりました。 2019年にOpenaiによって発表されたGPT-2は、ChatGptの背後にあるAIシステムの前身でした。質問に答え、記事を要約し、人間の執筆と区別できないテキストを生成することができます。 GPT-2は今では基本的に見えるかもしれませんが、当時は画期的でした。潜在的な誤用に関する懸念のため、Openaiは最初にモデルのソースコードを差し控え、代わりにSelect Newsletsがデモへのアクセスを制限できるようにしました。この決定は、AIコミュニティから混合フィードバックを受け取りました。 GPT-2に関連するリスクは誇張されており、誤用に関するOpenaiの懸念を裏付ける証拠はなかったと主張する人もいました。 AIに焦点を当てた出版物The Gradientは、その技術的意義を引用して、モデルをリリースするようOpenaiに促す公開書簡を公開しました。 Openaiは、最終的に発表から6か月後にGPT-2の部分バージョンをリリースし、数か月後に完全なシステムが続きました。ブランデージは、これが正しいアプローチであると信じています。 「[GPT-2リリース]のどの部分がAGIを不連続と考えていると考えているか、前提としていたのは、それがいずれかと考えていませんでしたか?」と彼はXで述べました。 Brundageは、Openaiの文書が、差し迫った危険の圧倒的な証拠がない限り、懸念が警戒態勢として却下される高い証拠の負担を確立することを目的としていることを懸念しています。彼は、この考え方が高度なAIシステムにとって「非常に危険」だと感じています。 「私がまだOpenaiで働いていたら、なぜこの[文書]がそのように書かれたのか、そしてオープンはそのようなLopの側面でうんちをすることによって達成したいと思っていることを尋ねるでしょう」とBrundageは付け加えました。 Openaiは、過去に、安全性よりも「光沢のある製品」を優先し、競合他社を上回るリリースを急いでいるという批判に直面してきました。昨年、同社はAGI準備チームを解散し、いくつかのAIの安全および政策研究者がライバル企業に去りました。競争力のある景観は強化されており、中国のAIラボDeepseekのR1モデルが公然と利用可能であり、キーベンチマークでOpenaiのO1「推論」モデルと一致し、世界的な注目を集めています。 Openai CEOのSam Altmanは、DeepseekがOpenaiの技術的リードを狭め、Openaiがリリーススケジュールの加速を検討するよう促したことを認めています。 Openaiは年間数十億を失い、2026年までに140億ドルに3倍の損失を投影することで、製品のリリースサイクルがより速くなると、短期的な利益を増やすことができますが、長期的な安全性を損なう可能性があります。 Brundageのような専門家は、このトレードオフが価値があるかどうかを疑問視しています。
関連記事
元OpenAIエンジニアが企業文化と急速な成長について語る
3週間前、OpenAIの主要製品に貢献したエンジニア、Calvin French-Owenが退社。彼は最近、OpenAIでの1年間を詳細に綴った魅力的なブログを公開し、CursorやAnthropicのClaude Codeに匹敵するコーディングエージェントCodexの開発に注力したことを明かした。French-Owenは、退社の理由が内部の対立ではなく、スタートアップ生活への回帰願望だったと説明
Appleユーザーが95百万ドルのSiriプライバシー和解金のシェアを請求可能
米国のAppleデバイス所有者は、Siriのプライバシー問題に関する9500万ドルの和解金の一部を申請できるようになりました。専用のウェブサイトでは、2014年9月17日から2024年12月31日までの間に、プライベートな会話中に意図せずSiriが起動した経験を持つ人々向けに資金分配を容易にします。この和解は、Appleがユーザーの同意なくSiriが聞き取った会話をキャプチャし、品質管理のために第
GoogleがOpenAIと競合するエンタープライズ市場向けに生産準備が整ったGemini 2.5 AIモデルを公開
Googleは月曜日、AI戦略を強化し、エンタープライズ向けに高度なGemini 2.5モデルを発表し、価格と性能で競争力のあるコスト効率の高いバリアントを導入しました。Alphabet傘下の同社は、主力AIモデルであるGemini 2.5 ProとGemini 2.5 Flashをテスト段階から完全な利用可能状態に移行し、重要なビジネスアプリケーションへの準備が整っていることを示しました。さらに
コメント (36)
0/200
LiamCarter
2025年8月5日 16:00:59 JST
It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?
0
TimothyMitchell
2025年4月21日 2:18:15 JST
マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍
0
JackPerez
2025年4月17日 8:40:06 JST
A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍
0
StevenGonzalez
2025年4月17日 5:38:43 JST
마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏
0
AlbertWilson
2025年4月17日 4:07:30 JST
Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏
0
DonaldBrown
2025年4月16日 16:05:24 JST
Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨
0




It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?




マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍




A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍




마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏




Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏




Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨












