Fei-Fei Li的團體敦促先發製人的AI安全立法

一份由加州政策小組發布的新報告,由AI先驅李飛飛共同領導,建議立法者在制定AI監管政策時,應考慮尚未在現實世界中出現的AI風險。這份41頁的臨時報告於週二發布,來自加州AI前沿模型聯合政策工作小組,該小組由州長加文·紐森在否決加州備受爭議的AI安全法案SB 1047後設立。紐森認為SB 1047未能完全達到目標,但他認識到需要深入研究AI風險以指導立法者。
在報告中,李飛飛與共同作者——加州大學伯克利分校計算學院院長Jennifer Chayes和卡內基國際和平基金會主席Mariano-Florentino Cuéllar——推動制定法律,使像OpenAI這樣的前沿AI實驗室的工作更加透明。在報告公開前,來自各行各業的業界人士進行了審查,包括支持AI安全的圖靈獎得主Yoshua Bengio,以及反對SB 1047的Databricks共同創始人Ion Stoica。
報告指出,AI系統的新風險可能意味著需要制定法律,要求AI模型開發者公開其安全測試、數據獲取方式和安全措施。報告還呼籲制定更好的第三方檢查標準,涵蓋這些內容以及公司政策,並為AI公司員工和承包商提供更多吹哨者保護。
李飛飛及其共同作者提到,目前還沒有足夠證據證明AI在協助網絡攻擊、製造生物武器或引發其他“極端”危險方面的潛力。但他們也表示,AI政策不應僅處理當前發生的事情,還應考慮如果缺乏足夠安全措施,未來可能發生的情況。
報告以核武器為例,說道:“我們不需要看到核武器爆炸就知道它可能造成巨大傷害。”報告繼續說道:“如果那些談論最壞風險的人是對的——我們不確定他們是否正確——那麼現在不對前沿AI採取任何行動可能代價高昂。”
為了使AI模型開發更加公開,報告建議採取“信任但需驗證”的方法。它表示,AI模型開發者及其員工應有途徑報告對公眾重要的事項,如內部安全測試,並且必須由第三方驗證其測試聲明。
這份報告將於2025年6月最終定稿,雖然未支持任何具體法律,但已獲得AI政策辯論雙方專家的好評。
喬治梅森大學專注於AI的研究員Dean Ball反對SB 1047,他在X上表示,這份報告是加州AI安全規則的積極進展。根據加州參議員Scott Wiener的說法,這也是AI安全倡導者的勝利,Wiener去年提出了SB 1047。他在一份新聞稿中表示,這份報告為“我們在2024年立法機構中開始的AI治理緊急討論”增添了內容。
報告似乎同意SB 1047及Wiener的下一項法案SB 53的部分內容,如要求AI模型開發者報告其安全測試結果。從更廣泛的角度看,這對AI安全人士來說是一個急需的勝利,他們的想法在過去一年中一直在失去支持。
相關文章
Master Emerald Kaizo Nuzlocke:終極生存與策略指南
Emerald Kaizo 是有史以來最強大的 Pokémon ROM hacks 之一。雖然嘗試執行 Nuzlocke 會使挑戰成倍增加,但透過縝密的規劃和策略執行,勝利仍然是可以實現的。這本權威指南提供在 Hardcore Nuzlocke 規則下征服 Emerald Kaizo 的必要工具、經過實戰考驗的戰術以及深入的 AI 分析。準備好迎接 Pokémon 精通的終極考驗吧!基本策略收集關
AI Powered Cover Letters:期刊投稿專家指南
在現今競爭激烈的學術出版環境中,撰寫一封有效的求職信對您的稿件能否被接受起著舉足輕重的作用。探索像 ChatGPT 之類的人工智能工具如何簡化這項重要任務,幫助您撰寫出精緻、專業的求職信,吸引期刊編輯的注意。我們的全面指南揭示了逐步優化您的投稿包並最大化出版成功率的策略。重點必要的研究準備:彙整所有稿件細節和期刊規格。AI 輔助撰稿:使用 ChatGPT 生成初始求職信模板。個人客製化:完善 AI
美國將因社交媒體法規制裁外國官員
美國站出來反對全球數位內容法規美國國務院本周針對歐洲的數位治理政策發出尖銳的外交譴責,顯示在網路平台控制權上的緊張關係正不斷升級。國務卿 Marco Rubio 公布了一項新的簽證限制政策,針對參與美國認為影響美國數位空間的過度審查的外國官員。新簽證限制說明根據週三公佈的政策,美國將拒絕被判定為正在執行影響美國受保護言論的海外內容規定的外國公民入境。Rubio 強調兩項主要的違法行為:
評論 (37)
0/200
HarrySmith
2025-08-28 05:01:36
This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?
0
PaulHill
2025-08-25 23:01:14
Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!
0
MichaelDavis
2025-04-17 20:14:46
O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅
0
JasonRoberts
2025-04-17 00:17:56
¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅
0
AnthonyJohnson
2025-04-16 12:13:53
El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚
0
WillieRodriguez
2025-04-16 07:01:01
Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚
0
一份由加州政策小組發布的新報告,由AI先驅李飛飛共同領導,建議立法者在制定AI監管政策時,應考慮尚未在現實世界中出現的AI風險。這份41頁的臨時報告於週二發布,來自加州AI前沿模型聯合政策工作小組,該小組由州長加文·紐森在否決加州備受爭議的AI安全法案SB 1047後設立。紐森認為SB 1047未能完全達到目標,但他認識到需要深入研究AI風險以指導立法者。
在報告中,李飛飛與共同作者——加州大學伯克利分校計算學院院長Jennifer Chayes和卡內基國際和平基金會主席Mariano-Florentino Cuéllar——推動制定法律,使像OpenAI這樣的前沿AI實驗室的工作更加透明。在報告公開前,來自各行各業的業界人士進行了審查,包括支持AI安全的圖靈獎得主Yoshua Bengio,以及反對SB 1047的Databricks共同創始人Ion Stoica。
報告指出,AI系統的新風險可能意味著需要制定法律,要求AI模型開發者公開其安全測試、數據獲取方式和安全措施。報告還呼籲制定更好的第三方檢查標準,涵蓋這些內容以及公司政策,並為AI公司員工和承包商提供更多吹哨者保護。
李飛飛及其共同作者提到,目前還沒有足夠證據證明AI在協助網絡攻擊、製造生物武器或引發其他“極端”危險方面的潛力。但他們也表示,AI政策不應僅處理當前發生的事情,還應考慮如果缺乏足夠安全措施,未來可能發生的情況。
報告以核武器為例,說道:“我們不需要看到核武器爆炸就知道它可能造成巨大傷害。”報告繼續說道:“如果那些談論最壞風險的人是對的——我們不確定他們是否正確——那麼現在不對前沿AI採取任何行動可能代價高昂。”
為了使AI模型開發更加公開,報告建議採取“信任但需驗證”的方法。它表示,AI模型開發者及其員工應有途徑報告對公眾重要的事項,如內部安全測試,並且必須由第三方驗證其測試聲明。
這份報告將於2025年6月最終定稿,雖然未支持任何具體法律,但已獲得AI政策辯論雙方專家的好評。
喬治梅森大學專注於AI的研究員Dean Ball反對SB 1047,他在X上表示,這份報告是加州AI安全規則的積極進展。根據加州參議員Scott Wiener的說法,這也是AI安全倡導者的勝利,Wiener去年提出了SB 1047。他在一份新聞稿中表示,這份報告為“我們在2024年立法機構中開始的AI治理緊急討論”增添了內容。
報告似乎同意SB 1047及Wiener的下一項法案SB 53的部分內容,如要求AI模型開發者報告其安全測試結果。從更廣泛的角度看,這對AI安全人士來說是一個急需的勝利,他們的想法在過去一年中一直在失去支持。




This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?




Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!




O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅




¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅




El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚




Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚












