人類は静かにビーデン時代の責任あるAIの誓約をウェブサイトから除去します

Anthropic、バイデン時代のAI安全コミットメントをウェブサイトから削除
AI業界の主要企業であるAnthropicが、先週、透明性ハブからバイデン時代の安全なAI開発に関するコミットメントを静かに削除し、注目を集めています。この変更は、AI監視団体であるThe Midas Projectによって最初に発見され、バイアスを含むAIリスクに関する情報や研究を政府と共有すると約束していた文言がなくなっていることが指摘されました。
これらのコミットメントは、Anthropicが2023年7月にOpenAI、Google、Metaなどの他のテック大手とともに結んだ自主的な合意の一部でした。この合意は、バイデン政権が責任あるAI開発を推進するための礎であり、その多くの側面が後にバイデンのAI大統領令に盛り込まれました。参加企業は、モデル公開前のセキュリティテストの実施、AI生成コンテンツへの透かし導入、堅牢なデータプライバシー基盤の構築といった特定の基準を遵守することを約束していました。
さらに、Anthropicは、バイデンの大統領令に基づいて設立されたAI Safety Instituteと協力し、これらの優先事項を推進することに同意していました。しかし、トランプ政権がこの研究所を解散する可能性が高いため、これらの取り組みの将来は不透明です。
興味深いことに、Anthropicはこれらのコミットメントをウェブサイトから削除したことについて公表していません。同社は、現在の責任あるAIに関する立場は、バイデン時代の合意とは無関係であるか、またはそれ以前のものだと主張しています。
トランプ政権下での広範な影響
この動きは、トランプ政権下でのAI政策と規制のより大きな変化の一部です。就任初日、トランプはバイデンのAIに関する大統領令を覆し、複数のAI専門家を政府の役職から解任し、研究資金を削減しました。これらの行動により、主要なAI企業間でトーンの顕著な変化が見られ、一部の企業は政府との契約を拡大し、トランプ政権下で進化しつつあるAI政策の風景に影響を与えようとしています。
例えば、Googleのような企業は、責任あるAIの定義を再構築しており、すでにそれほど厳格ではなかった基準を緩和する可能性があります。バイデン政権時に確立された限定的なAI規制の多くが解体されるリスクにさらされており、企業は自己規制や第三者による監督を受ける外部のインセンティブがさらに少なくなる可能性があります。
注目すべきは、AIシステムにおけるバイアスや差別の安全チェックに関する議論が、トランプのAIに関する公の発言で顕著に欠如していることであり、これらの優先事項からの潜在的なシフトを示唆しています。
関連記事
AI駆動のネイルサロン効率化:運営と成長の促進
ビジネスのダイナミックな世界では、運営の最適化と顧客満足度の向上が成功の鍵です。Tamashi Nail Salonのようなネイルサロンは、効率を高め、コストを削減し、顧客体験を向上させるために革新的なソリューションを採用しています。人工知能(AI)は、スケジュール管理の自動化から24時間対応の顧客サポートまで、これらの課題に対処する変革的なツールを提供します。この記事では、Tamashi Nai
AIを活用した2025年の子供向け歌曲の制作と収益化
2025年、人工知能は子供向けエンターテインメントを変革しています。AIで作られた子供向け歌曲の制作は、単なる未来志向のコンセプトではなく、実際的で収益を生む機会です。このガイドでは、AIを活用して魅力的な子供向けコンテンツを作成し、YouTubeで効果的に収益化する方法を説明します。魅力的なAI子供向け歌曲の開発、チャンネルの拡大、ダイナミックなデジタルコンテンツ環境での成功方法を探ります。主な
Amazonが高度なAI機能を備えたAlexa+を初公開
水曜日のニューヨークでのイベントで、Amazonは最先端の生成AI技術を活用した先進的なAlexa+体験を発表しました。Amazonのデバイスおよびサービス責任者であるパノス・パナイ氏は、これをAIアシスタントの「完全なオーバーホール」と表現しました。「Alexaのビジョンは常に大胆で魅力的でしたが、これまで技術的な制約が私たちを制限してきました」とパナイ氏は述べました。「単独のAIチャットボット
コメント (2)
0/200
JuanLewis
2025年8月4日 15:01:00 JST
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
2025年7月28日 10:20:54 JST
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
Anthropic、バイデン時代のAI安全コミットメントをウェブサイトから削除
AI業界の主要企業であるAnthropicが、先週、透明性ハブからバイデン時代の安全なAI開発に関するコミットメントを静かに削除し、注目を集めています。この変更は、AI監視団体であるThe Midas Projectによって最初に発見され、バイアスを含むAIリスクに関する情報や研究を政府と共有すると約束していた文言がなくなっていることが指摘されました。
これらのコミットメントは、Anthropicが2023年7月にOpenAI、Google、Metaなどの他のテック大手とともに結んだ自主的な合意の一部でした。この合意は、バイデン政権が責任あるAI開発を推進するための礎であり、その多くの側面が後にバイデンのAI大統領令に盛り込まれました。参加企業は、モデル公開前のセキュリティテストの実施、AI生成コンテンツへの透かし導入、堅牢なデータプライバシー基盤の構築といった特定の基準を遵守することを約束していました。
さらに、Anthropicは、バイデンの大統領令に基づいて設立されたAI Safety Instituteと協力し、これらの優先事項を推進することに同意していました。しかし、トランプ政権がこの研究所を解散する可能性が高いため、これらの取り組みの将来は不透明です。
興味深いことに、Anthropicはこれらのコミットメントをウェブサイトから削除したことについて公表していません。同社は、現在の責任あるAIに関する立場は、バイデン時代の合意とは無関係であるか、またはそれ以前のものだと主張しています。
トランプ政権下での広範な影響
この動きは、トランプ政権下でのAI政策と規制のより大きな変化の一部です。就任初日、トランプはバイデンのAIに関する大統領令を覆し、複数のAI専門家を政府の役職から解任し、研究資金を削減しました。これらの行動により、主要なAI企業間でトーンの顕著な変化が見られ、一部の企業は政府との契約を拡大し、トランプ政権下で進化しつつあるAI政策の風景に影響を与えようとしています。
例えば、Googleのような企業は、責任あるAIの定義を再構築しており、すでにそれほど厳格ではなかった基準を緩和する可能性があります。バイデン政権時に確立された限定的なAI規制の多くが解体されるリスクにさらされており、企業は自己規制や第三者による監督を受ける外部のインセンティブがさらに少なくなる可能性があります。
注目すべきは、AIシステムにおけるバイアスや差別の安全チェックに関する議論が、トランプのAIに関する公の発言で顕著に欠如していることであり、これらの優先事項からの潜在的なシフトを示唆しています。




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












