選項
首頁
新聞
Fei-Fei Li的團體敦促先發製人的AI安全立法

Fei-Fei Li的團體敦促先發製人的AI安全立法

2025-04-10
124

Fei-Fei Li的團體敦促先發製人的AI安全立法

一份由加州政策小組發布的新報告,由AI先驅李飛飛共同領導,建議立法者在制定AI監管政策時,應考慮尚未在現實世界中出現的AI風險。這份41頁的臨時報告於週二發布,來自加州AI前沿模型聯合政策工作小組,該小組由州長加文·紐森在否決加州備受爭議的AI安全法案SB 1047後設立。紐森認為SB 1047未能完全達到目標,但他認識到需要深入研究AI風險以指導立法者。

在報告中,李飛飛與共同作者——加州大學伯克利分校計算學院院長Jennifer Chayes和卡內基國際和平基金會主席Mariano-Florentino Cuéllar——推動制定法律,使像OpenAI這樣的前沿AI實驗室的工作更加透明。在報告公開前,來自各行各業的業界人士進行了審查,包括支持AI安全的圖靈獎得主Yoshua Bengio,以及反對SB 1047的Databricks共同創始人Ion Stoica。

報告指出,AI系統的新風險可能意味著需要制定法律,要求AI模型開發者公開其安全測試、數據獲取方式和安全措施。報告還呼籲制定更好的第三方檢查標準,涵蓋這些內容以及公司政策,並為AI公司員工和承包商提供更多吹哨者保護。

李飛飛及其共同作者提到,目前還沒有足夠證據證明AI在協助網絡攻擊、製造生物武器或引發其他“極端”危險方面的潛力。但他們也表示,AI政策不應僅處理當前發生的事情,還應考慮如果缺乏足夠安全措施,未來可能發生的情況。

報告以核武器為例,說道:“我們不需要看到核武器爆炸就知道它可能造成巨大傷害。”報告繼續說道:“如果那些談論最壞風險的人是對的——我們不確定他們是否正確——那麼現在不對前沿AI採取任何行動可能代價高昂。”

為了使AI模型開發更加公開,報告建議採取“信任但需驗證”的方法。它表示,AI模型開發者及其員工應有途徑報告對公眾重要的事項,如內部安全測試,並且必須由第三方驗證其測試聲明。

這份報告將於2025年6月最終定稿,雖然未支持任何具體法律,但已獲得AI政策辯論雙方專家的好評。

喬治梅森大學專注於AI的研究員Dean Ball反對SB 1047,他在X上表示,這份報告是加州AI安全規則的積極進展。根據加州參議員Scott Wiener的說法,這也是AI安全倡導者的勝利,Wiener去年提出了SB 1047。他在一份新聞稿中表示,這份報告為“我們在2024年立法機構中開始的AI治理緊急討論”增添了內容。

報告似乎同意SB 1047及Wiener的下一項法案SB 53的部分內容,如要求AI模型開發者報告其安全測試結果。從更廣泛的角度看,這對AI安全人士來說是一個急需的勝利,他們的想法在過去一年中一直在失去支持。

相關文章
使用HitPaw AI照片增強器提升您的圖像:全面指南 使用HitPaw AI照片增強器提升您的圖像:全面指南 想改變您的照片編輯體驗?借助尖端人工智慧,現在改善您的圖像變得輕鬆無比。本詳細指南介紹了HitPaw AI照片增強器,一款離線AI工具,可自動提升圖像品質和解析度。無論您是資深攝影師還是熱衷於優化個人快照的愛好者,HitPaw AI照片增強器都能提供強大的功能,帶來驚艷的成果。主要亮點HitPaw AI照片增強器是一款適用於Windows和Mac的AI驅動解決方案,專為提升圖像品質而設計。只需一鍵
AI驅動的音樂創作:輕鬆打造歌曲與影片 AI驅動的音樂創作:輕鬆打造歌曲與影片 音樂創作可能複雜,需耗費時間、資源與專業知識。人工智慧已改變此過程,使其簡單且易於上手。本指南介紹如何利用AI讓任何人免費創作獨特的歌曲與視覺效果,開啟新的創意可能性。我們探索具有直觀介面與先進AI的平台,將您的音樂創意轉化為現實,且無需高昂成本。重點AI可生成完整歌曲,包括人聲,不僅限於器樂。Suno AI與Hailuo AI等平台提供免費音樂創作工具。ChatGPT等AI工具簡化歌詞創作,加速
創建AI驅動的著色書:全面指南 創建AI驅動的著色書:全面指南 設計著色書是一項有益的追求,結合藝術表達與為使用者提供平靜的體驗。然而,此過程可能相當勞力密集。幸運的是,AI工具能輕鬆簡化高品質、一致的著色頁創建。本指南提供使用AI製作著色書的逐步方法,專注於保持一致風格和最佳效率的技術。關鍵要點使用AI提示工具開發詳細、結構化的著色頁提示。確保著色書中所有頁面的藝術風格一致。生成單一著色頁設計的多樣變化。利用Ideogram等AI平台快速高效創建著色書。精煉
評論 (35)
0/200
MichaelDavis
MichaelDavis 2025-04-17 20:14:46

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 2025-04-17 00:17:56

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 2025-04-16 12:13:53

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 2025-04-16 07:01:01

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 2025-04-16 01:16:25

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 2025-04-15 13:46:36

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

回到頂部
OR