人類は静かにビーデン時代の責任あるAIの誓約をウェブサイトから除去します
2025年4月26日
HarryRoberts
0
人類は、WebサイトからBiden時代のAIの安全に関するコミットメントを削除します
AI業界の著名なプレーヤーである人類の眉を上げた動きで、先週の透明性ハブから安全なAI開発に対するバイデン時代のコミットメントを静かに削除しました。この変更は、最初にAIウォッチドッググループであるMidasプロジェクトによって発見されました。これは、政府とのバイアスを含むAIのリスクに関する情報と研究を共有することを約束した言語の欠如に注目しました。
これらのコミットメントは、2023年7月にOpenai、Google、Metaなどの他のハイテク大手と一緒に登場した自発的な協定の人類の一部でした。本契約は、責任あるAI開発を促進するためのバイデン政権の努力の基礎であり、その多くの側面は後にバイデンのAIの執行命令に包まれました。参加企業は、リリース前にモデルでセキュリティテストを実施する、AIが生成されたコンテンツの透かし、堅牢なデータプライバシーインフラストラクチャの開発など、特定の基準を遵守することを約束していました。
さらに、人類は、これらの優先事項を前進させるために、バイデンの大統領令の下で設立されたAI安全研究所と協力することに同意していました。しかし、トランプ政権が研究所を解散する可能性が高いため、これらのイニシアチブの将来はバランスにかかっています。
興味深いことに、人類は、これらのコミットメントの削除についてWebサイトから公開されていませんでした。同社は、責任あるAIに対する現在の立場は、バイデン時代の協定とは無関係または先行するかのいずれかであると主張しています。
トランプ政権の下でのより広範な意味
この開発は、トランプ政権下のAI政策と規制のより広範な変化の一部です。就任初の日に、トランプはAIに関するバイデンの大統領命令を覆し、彼はすでに政府の地位からいくつかのAI専門家を却下し、研究資金を削減しています。これらの行動は、主要なAI企業の間でトーンの顕著な変化の段階を設定しており、その一部は現在、政府の契約を拡大し、トランプの下でまだ進化しているAI政策環境に影響を与えようとしています。
たとえば、Googleのような企業は、責任あるAIを構成するものを再定義しており、潜在的に緩み基準を緩めていません。バイデン政権中に解体されるリスクがある限られたAI規制の多くが確立されているため、企業は、サードパーティの監視に自己調節または提出するための外部のインセンティブがさらに少ないことに気付くかもしれません。
特に、AIシステムにおけるバイアスと差別の安全チェックに関する議論は、AIに関するトランプの公式声明に顕著に存在しておらず、これらの優先事項からの潜在的な移行を示唆しています。

関連記事
インドのサリーの永続的な美しさを発見します
インドのサリーは単なる服以上のものです。それは恵みの象徴であり、何世紀にもわたる伝統の証です。それは、歴史、芸術性、そして女性らしさの本質の豊かなタペストリーを一緒に織り込みます。シンプルなコットンドレープであろうと、複雑に刺繍されたシルクの傑作であろうと、
Googleの最新のAIモデルレポートには重要な安全性の詳細がありません、と専門家は言います
Googleは、最新かつ最も高度なAIモデルであるGemini 2.5 Proを開始してから数週間後の木曜日に、内部安全評価の結果を詳述したテクニカルレポートをリリースしました。しかし、専門家はその詳細が不足しているとレポートを批判しており、ポットを完全に理解することは困難です
Adobe Illustratorのフォントサイズをマスターする包括的なガイド
グラフィックデザインとアートの世界に飛び込んでいる場合、Adobe Illustratorはあなたの頼りになるツールです。視覚的に見事なデザインを作成できる機能が詰め込まれており、使用する重要な要素の1つはタイポグラフィです。フォントサイズを適切にすることは、両方の読みやすさにとって非常に重要です
コメント (0)
0/200






人類は、WebサイトからBiden時代のAIの安全に関するコミットメントを削除します
AI業界の著名なプレーヤーである人類の眉を上げた動きで、先週の透明性ハブから安全なAI開発に対するバイデン時代のコミットメントを静かに削除しました。この変更は、最初にAIウォッチドッググループであるMidasプロジェクトによって発見されました。これは、政府とのバイアスを含むAIのリスクに関する情報と研究を共有することを約束した言語の欠如に注目しました。
これらのコミットメントは、2023年7月にOpenai、Google、Metaなどの他のハイテク大手と一緒に登場した自発的な協定の人類の一部でした。本契約は、責任あるAI開発を促進するためのバイデン政権の努力の基礎であり、その多くの側面は後にバイデンのAIの執行命令に包まれました。参加企業は、リリース前にモデルでセキュリティテストを実施する、AIが生成されたコンテンツの透かし、堅牢なデータプライバシーインフラストラクチャの開発など、特定の基準を遵守することを約束していました。
さらに、人類は、これらの優先事項を前進させるために、バイデンの大統領令の下で設立されたAI安全研究所と協力することに同意していました。しかし、トランプ政権が研究所を解散する可能性が高いため、これらのイニシアチブの将来はバランスにかかっています。
興味深いことに、人類は、これらのコミットメントの削除についてWebサイトから公開されていませんでした。同社は、責任あるAIに対する現在の立場は、バイデン時代の協定とは無関係または先行するかのいずれかであると主張しています。
トランプ政権の下でのより広範な意味
この開発は、トランプ政権下のAI政策と規制のより広範な変化の一部です。就任初の日に、トランプはAIに関するバイデンの大統領命令を覆し、彼はすでに政府の地位からいくつかのAI専門家を却下し、研究資金を削減しています。これらの行動は、主要なAI企業の間でトーンの顕著な変化の段階を設定しており、その一部は現在、政府の契約を拡大し、トランプの下でまだ進化しているAI政策環境に影響を与えようとしています。
たとえば、Googleのような企業は、責任あるAIを構成するものを再定義しており、潜在的に緩み基準を緩めていません。バイデン政権中に解体されるリスクがある限られたAI規制の多くが確立されているため、企業は、サードパーティの監視に自己調節または提出するための外部のインセンティブがさらに少ないことに気付くかもしれません。
特に、AIシステムにおけるバイアスと差別の安全チェックに関する議論は、AIに関するトランプの公式声明に顕著に存在しておらず、これらの優先事項からの潜在的な移行を示唆しています。











