元オペナイポリシーリードAIの安全性の物語を変更したことをリードしています

元Openaiの政策研究者であるMiles Brundageは最近、ソーシャルメディアに、潜在的にリスクの高いAIシステムを展開するアプローチの「歴史を書き直す」試みと見ているものについてOpenaiを呼びかけました。今週、Openaiは、AIの安全性とアラインメントに関する現在のスタンス、AIシステムを予測可能かつ有益な方法で確保するプロセスを詳述したドキュメントをリリースしました。その中で、Openaiは、AIテクノロジーから「繰り返し展開および学習」する「連続的なパス」として、人間ができるあらゆるタスクができるAGIまたはAIシステムの開発を説明しました。 「不連続な世界[...]安全レッスンは、見かけの力に比べて最大の注意を払って今日のシステムを扱うことから来ています。これは、[AIモデル] GPT-2にとったアプローチです」とOpenaiは文書に述べています。 「私たちは今、最初のAGIを、継続的な世界で有用性を高める一連のシステムに沿った1つのポイントに沿っていると考えています。次のシステムを安全で有益なものにする方法は、現在のシステムから学ぶことです。」しかし、Brundageは、GPT-2で取られた慎重なアプローチは、Openaiの現在の反復展開戦略と完全に一致していると主張しています。 「私が関与していたGPT-2のOpenaiのリリースは、Xに投稿されたBrundageが投稿したBrundageは、Openaiの現在の繰り返し展開哲学と100%一貫していました。「モデルは段階的にリリースされ、各ステップでレッスンが共有されました。 2018年に研究科学者としてOpenaiに入社し、後にOpenaiの「AGI Readiness」チームに携わっている間、ChatGPTのような言語生成システムの責任ある展開に焦点を当てたBrundageが同社の政策研究責任者になりました。 2019年にOpenaiによって発表されたGPT-2は、ChatGptの背後にあるAIシステムの前身でした。質問に答え、記事を要約し、人間の執筆と区別できないテキストを生成することができます。 GPT-2は今では基本的に見えるかもしれませんが、当時は画期的でした。潜在的な誤用に関する懸念のため、Openaiは最初にモデルのソースコードを差し控え、代わりにSelect Newsletsがデモへのアクセスを制限できるようにしました。この決定は、AIコミュニティから混合フィードバックを受け取りました。 GPT-2に関連するリスクは誇張されており、誤用に関するOpenaiの懸念を裏付ける証拠はなかったと主張する人もいました。 AIに焦点を当てた出版物The Gradientは、その技術的意義を引用して、モデルをリリースするようOpenaiに促す公開書簡を公開しました。 Openaiは、最終的に発表から6か月後にGPT-2の部分バージョンをリリースし、数か月後に完全なシステムが続きました。ブランデージは、これが正しいアプローチであると信じています。 「[GPT-2リリース]のどの部分がAGIを不連続と考えていると考えているか、前提としていたのは、それがいずれかと考えていませんでしたか?」と彼はXで述べました。 Brundageは、Openaiの文書が、差し迫った危険の圧倒的な証拠がない限り、懸念が警戒態勢として却下される高い証拠の負担を確立することを目的としていることを懸念しています。彼は、この考え方が高度なAIシステムにとって「非常に危険」だと感じています。 「私がまだOpenaiで働いていたら、なぜこの[文書]がそのように書かれたのか、そしてオープンはそのようなLopの側面でうんちをすることによって達成したいと思っていることを尋ねるでしょう」とBrundageは付け加えました。 Openaiは、過去に、安全性よりも「光沢のある製品」を優先し、競合他社を上回るリリースを急いでいるという批判に直面してきました。昨年、同社はAGI準備チームを解散し、いくつかのAIの安全および政策研究者がライバル企業に去りました。競争力のある景観は強化されており、中国のAIラボDeepseekのR1モデルが公然と利用可能であり、キーベンチマークでOpenaiのO1「推論」モデルと一致し、世界的な注目を集めています。 Openai CEOのSam Altmanは、DeepseekがOpenaiの技術的リードを狭め、Openaiがリリーススケジュールの加速を検討するよう促したことを認めています。 Openaiは年間数十億を失い、2026年までに140億ドルに3倍の損失を投影することで、製品のリリースサイクルがより速くなると、短期的な利益を増やすことができますが、長期的な安全性を損なう可能性があります。 Brundageのような専門家は、このトレードオフが価値があるかどうかを疑問視しています。
関連記事
非営利団体、AIエージェントを活用してチャリティ募金活動を強化
大手テック企業がAIの "エージェント "をビジネスの生産性向上剤として推進する一方で、ある非営利団体はAIが社会的利益に貢献する可能性を実証している。オープン・フィランソロピーが支援する慈善研究グループ、セージ・フューチャーは最近、AIモデルが慈善活動の資金調達にどのように協力できるかを示す革新的な実験を行った。この非営利団体は、OpenAIのGPT-4oとo1、AnthropicのClau
トップAI研究所は、人類はAIシステムを理解する力を失いつつあると警告する
OpenAI、Google DeepMind、Anthropic、Metaの研究者は、前例のない団結を示し、競争上の相違を脇に置いて、責任あるAI開発について集団で警告を発した。これらの通常ライバル関係にある組織から40人以上の一流の科学者が、AIの意思決定プロセスの透明性を確保するための窓が急速に狭まっていることを強調する画期的な研究論文を共同執筆した。この共同研究は、現代のAIシステムにおける
ChatGPT、ファイルアクセスにGoogle DriveとDropboxの統合を追加
ChatGPTが企業向け新機能で生産性を向上OpenAIは、ChatGPTを包括的なビジネス生産性ツールに変える2つの強力な新機能を発表しました:自動会議文書化とシームレスなクラウドストレージ統合です。革命的な録音機能新しく導入された "記録モード "は、自動テープ起こしや分析を可能にします:重要なビジネス会議創造的なブレーンストーミングセッション 個人の思考プロセスこの
コメント (36)
0/200
LiamCarter
2025年8月5日 16:00:59 JST
It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?
0
TimothyMitchell
2025年4月21日 2:18:15 JST
マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍
0
JackPerez
2025年4月17日 8:40:06 JST
A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍
0
StevenGonzalez
2025年4月17日 5:38:43 JST
마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏
0
AlbertWilson
2025年4月17日 4:07:30 JST
Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏
0
DonaldBrown
2025年4月16日 16:05:24 JST
Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨
0




It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?




マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍




A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍




마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏




Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏




Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨












