选项
首页
新闻
Fei-Fei Li的团体敦促先发制人的AI安全立法

Fei-Fei Li的团体敦促先发制人的AI安全立法

2025-04-10
152

Fei-Fei Li的团体敦促先发制人的AI安全立法

一份由加利福尼亚州政策小组发布的新报告,由AI先锋李飞飞共同领导,建议立法者在制定AI监管政策时应考虑尚未在现实世界中出现的AI风险。这份41页的临时报告于周二发布,来自加利福尼亚州AI前沿模型联合政策工作小组,该小组由州长加文·纽森在否决了加州备受争议的AI安全法案SB 1047后设立。纽森认为SB 1047未能完全达到目标,但他认识到需要更深入地研究AI风险以指导立法者。

在报告中,李飞飞与共同作者——加州大学伯克利分校计算学院院长詹妮弗·查耶斯和卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃拉尔——主张制定法律,使OpenAI等前沿AI实验室的活动更加透明。在报告公开之前,来自各行各业的行业人士对其进行了审阅,包括图灵奖得主约书亚·本吉奥等强烈支持AI安全的倡导者,以及反对SB 1047的人士,如Databricks联合创始人伊恩·斯托伊卡。

报告指出,AI系统的新风险可能意味着我们需要制定法律,要求AI模型开发者公开其安全测试、数据获取方式以及安全措施。报告还呼吁制定更好的第三方检查标准,涵盖这些内容及公司政策,并为AI公司员工和承包商提供更多保护,以支持他们进行举报。

李飞飞及其共同作者提到,目前尚无足够证据证明AI在协助网络攻击、制造生物武器或其他“极端”危险方面的潜力。但他们也表示,AI政策不应仅关注当前发生的事情,还应考虑未来如果缺乏足够安全措施可能发生的情况。

报告以核武器为例,称:“我们无需看到核武器爆炸就知道它可能造成巨大危害。”报告继续指出:“如果那些讨论最坏风险的人是对的——我们不确定他们是否正确——那么现在不对前沿AI采取任何行动可能会付出巨大代价。”

为使AI模型开发更加公开,报告建议采取“信任但需验证”的方法。报告表示,AI模型开发者及其员工应有途径向公众报告重要事项,如内部安全测试,并需由第三方验证其测试声明。

虽然这份将于2025年6月最终定稿的报告未支持任何具体法律,但它在AI政策辩论双方专家中均受到好评。

乔治梅森大学专注于AI的研究员迪恩·鲍尔反对SB 1047,他在X上表示,这份报告为加州的AI安全规则迈出了积极一步。据加州州参议员斯科特·威纳介绍,这对AI安全倡导者来说也是一次胜利,他去年提出了SB 1047。威纳在一份新闻发布会上表示,这份报告为“我们在2024年立法机构中开始的关于AI治理的紧急讨论”增添了内容。

报告似乎部分同意SB 1047及威纳的下一项法案SB 53的内容,如要求AI模型开发者报告其安全测试结果。从更宏观的角度看,这对AI安全倡导者来说是一次急需的胜利,他们的理念在过去一年中逐渐失去影响力。

相关文章
翡翠开藏大师》(Master Emerald Kaizo Nuzlocke):终极生存与策略指南 翡翠开藏大师》(Master Emerald Kaizo Nuzlocke):终极生存与策略指南 Emerald Kaizo 是有史以来最强大的神奇宝贝 ROM 黑客之一。虽然尝试运行 Nuzlocke 会使挑战成倍增加,但通过精心策划和战略执行,胜利仍然是可以实现的。这本权威指南提供了在硬核 Nuzlocke 规则下征服翡翠海藏的必备工具、经过实战检验的战术和深入的人工智能分析。准备好接受神奇宝贝高手的终极考验吧!基本策略收集关键工具:游戏文档、专门的 PKHeX(EK 版)和精确的伤害计算
人工智能驱动的求职信:期刊投稿专家指南 人工智能驱动的求职信:期刊投稿专家指南 在当今竞争激烈的学术出版环境中,撰写一封有效的求职信是稿件能否被录用的关键。了解像 ChatGPT 这样的人工智能工具如何简化这一重要任务,帮助您撰写出精美、专业的信件,吸引期刊编辑的注意。我们的综合指南将逐步揭示优化投稿包、最大限度地提高发表成功率的策略。要点必要的研究准备:整理所有稿件细节和期刊规范。人工智能辅助起草:使用 ChatGPT 生成最初的求职信模板。个性化定制:完善人工智能输出,以
美国将因社交媒体法规制裁外国官员 美国将因社交媒体法规制裁外国官员 美国站出来反对全球数字内容法规美国国务院本周针对欧洲的数字治理政策发出了尖锐的外交斥责,表明在网络平台控制权问题上的紧张局势正在升级。国务卿马可-卢比奥(Marco Rubio)公布了一项新的签证限制政策,该政策针对的是参与美国认为影响美国数字空间的过度审查的外国官员。新签证限制解释根据周三宣布的政策,美国将拒绝被认定正在执行影响美国受保护言论的海外内容法规的外国公民入境。卢比奥强调了两
评论 (37)
0/200
HarrySmith
HarrySmith 2025-08-28 05:01:36

This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?

PaulHill
PaulHill 2025-08-25 23:01:14

Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!

MichaelDavis
MichaelDavis 2025-04-17 20:14:46

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 2025-04-17 00:17:56

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 2025-04-16 12:13:53

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 2025-04-16 07:01:01

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

返回顶部
OR