オプション
ニュース
FEI-FEI LIのグループは、先制AIの安全法を促します

FEI-FEI LIのグループは、先制AIの安全法を促します

2025年4月10日
124

FEI-FEI LIのグループは、先制AIの安全法を促します

カリフォルニアの政策グループが、AIのパイオニアであるフェイフェイ・リー氏が共同で主導する新しい報告書によると、議員はAI規制政策を作成する際に、現実世界でまだ見られていないAIのリスクを考慮すべきだとされています。この41ページの中間報告書は、火曜日に公開され、ギャビン・ニューサム知事がカリフォルニアの物議を醸したAI安全法案SB 1047を拒否した後、設立された「AIフロンティアモデルに関するカリフォルニア共同政策作業グループ」によるものです。ニューサム知事はSB 1047が目標に十分に合致していないと感じましたが、AIのリスクを深く調査し、立法者を導く必要性を認識しました。

報告書では、リー氏と共同著者のジェニファー・チェイズ(カリフォルニア大学バークレー校計算機科学部の学部長)、マリアーノ・フロレンティーノ・クエヤル(カーネギー国際平和財団の会長)が、OpenAIのようなフロンティアAIラボの活動を明確にする法律を求めています。報告書が公開される前に、チューリング賞受賞者のヨシュア・ベンジオのようなAI安全の強力な支持者や、Databricksの共同創業者イオン・ストイカのようなSB 1047に反対する業界関係者など、さまざまな立場の人々が報告書をレビューしました。

報告書は、AIシステムによる新たなリスクに対応するため、AIモデル開発者が安全性テスト、データの取得方法、セキュリティ対策を公開する必要がある法律が必要かもしれないと指摘しています。また、第三者によるこれらの項目や企業ポリシーのチェックのためのより高い基準や、AI企業の従業員や契約者が内部告発をする際の保護強化も求めています。

リー氏と共同著者は、AIがサイバー攻撃を支援したり、生物兵器を作成したり、その他の「極端な」危険を引き起こす可能性についての証拠がまだ十分でないと述べています。しかし、AI政策は現在起こっていることだけを扱うのではなく、十分な安全対策がなければ将来起こりうることについても考えるべきだとしています。

報告書は核兵器を例に挙げ、「核兵器が爆発しなくても、それが大きな害を引き起こす可能性があることはわかっています」と述べています。さらに、「最悪のリスクについて語る人々が正しい場合――それが本当になるかどうかはわかりませんが――今、フロンティアAIについて何もしなければ、非常に大きなコストを払うことになるかもしれません」と続けています。

AIモデルの開発をより透明にするため、報告書は「信頼しつつ検証する」アプローチを提案しています。AIモデル開発者とその従業員が、内部安全性テストなど、公共にとって重要な事柄を報告する方法を持つべきであり、テストの主張を第三者に検証させる必要があると述べています。

2025年6月に最終化されるこの報告書は、特定の法律を支持するものではありませんが、AI政策議論の両側にいる専門家から好評を得ています。

SB 1047に反対していたジョージ・メイソン大学のAIに焦点を当てた研究員ディーン・ボール氏は、Xでこの報告書がカリフォルニアのAI安全規則にとって良い一歩だと述べました。また、昨年SB 1047を提出したカリフォルニア州上院議員スコット・ウィーナー氏によると、これはAI安全の擁護者にとって勝利です。ウィーナー氏はプレスリリースで、報告書が「2024年に議会で始めたAIガバナンスに関する緊急の議論に貢献する」と述べました。

報告書は、SB 1047やウィーナー氏の次の法案SB 53の一部に同意しており、AIモデル開発者に安全性テスト結果の報告を義務付けることを支持しています。大きな視点で見ると、これは過去1年間で勢いを失っていたAI安全の擁護者にとって、非常に必要な勝利のように見えます。

関連記事
HitPaw AI Photo Enhancerで画像を向上させる:包括的ガイド HitPaw AI Photo Enhancerで画像を向上させる:包括的ガイド 写真編集の体験を変えたいですか?最先端の人工知能のおかげで、画像の改善が今や簡単に行えます。この詳細なガイドでは、HitPaw AI Photo Enhancer、画像の品質と解像度を自動的に向上させるオフラインAIツールを探ります。プロの写真家であろうと、個人のスナップショットを磨きたい愛好家であろうと、HitPaw AI Photo Enhancerは驚くべき結果をもたらす強力な機能を提供しま
AI駆動の音楽作成:楽曲とビデオを簡単に制作 AI駆動の音楽作成:楽曲とビデオを簡単に制作 音楽作成は時間、資源、専門知識を必要とする複雑なプロセスです。人工知能はこのプロセスを変革し、シンプルで誰でも利用できるものにしました。このガイドでは、AIがどのようにして誰でも無料でユニークな楽曲やビジュアルを制作できるようにするか、新たな創造的可能性を解き放つ方法を紹介します。直感的で使いやすいインターフェースと先進的なAIを備えたプラットフォームを探索し、音楽のアイデアを高コストなしで現実に
AI駆動の塗り絵ブック作成:包括的ガイド AI駆動の塗り絵ブック作成:包括的ガイド 塗り絵ブックのデザインは、芸術的表現とユーザーのリラックス体験を組み合わせた報われる追求です。しかし、そのプロセスは労働集約的です。幸い、AIツールは高品質で均一な塗り絵ページを簡単に作成できます。このガイドは、AIを使用して一貫したスタイルと最適な効率に焦点を当てた塗り絵ブック作成のステップごとのアプローチを提供します。主なポイントAIプロンプトツールを使用して、詳細で構造化された塗り絵ページの
コメント (35)
0/200
MichaelDavis
MichaelDavis 2025年4月17日 21:14:46 JST

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 2025年4月17日 1:17:56 JST

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 2025年4月16日 13:13:53 JST

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 2025年4月16日 8:01:01 JST

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 2025年4月16日 2:16:25 JST

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 2025年4月15日 14:46:36 JST

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

トップに戻ります
OR