选项
首页
新闻
Fei-Fei Li的团体敦促先发制人的AI安全立法

Fei-Fei Li的团体敦促先发制人的AI安全立法

2025-04-10
124

Fei-Fei Li的团体敦促先发制人的AI安全立法

一份由加利福尼亚州政策小组发布的新报告,由AI先锋李飞飞共同领导,建议立法者在制定AI监管政策时应考虑尚未在现实世界中出现的AI风险。这份41页的临时报告于周二发布,来自加利福尼亚州AI前沿模型联合政策工作小组,该小组由州长加文·纽森在否决了加州备受争议的AI安全法案SB 1047后设立。纽森认为SB 1047未能完全达到目标,但他认识到需要更深入地研究AI风险以指导立法者。

在报告中,李飞飞与共同作者——加州大学伯克利分校计算学院院长詹妮弗·查耶斯和卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃拉尔——主张制定法律,使OpenAI等前沿AI实验室的活动更加透明。在报告公开之前,来自各行各业的行业人士对其进行了审阅,包括图灵奖得主约书亚·本吉奥等强烈支持AI安全的倡导者,以及反对SB 1047的人士,如Databricks联合创始人伊恩·斯托伊卡。

报告指出,AI系统的新风险可能意味着我们需要制定法律,要求AI模型开发者公开其安全测试、数据获取方式以及安全措施。报告还呼吁制定更好的第三方检查标准,涵盖这些内容及公司政策,并为AI公司员工和承包商提供更多保护,以支持他们进行举报。

李飞飞及其共同作者提到,目前尚无足够证据证明AI在协助网络攻击、制造生物武器或其他“极端”危险方面的潜力。但他们也表示,AI政策不应仅关注当前发生的事情,还应考虑未来如果缺乏足够安全措施可能发生的情况。

报告以核武器为例,称:“我们无需看到核武器爆炸就知道它可能造成巨大危害。”报告继续指出:“如果那些讨论最坏风险的人是对的——我们不确定他们是否正确——那么现在不对前沿AI采取任何行动可能会付出巨大代价。”

为使AI模型开发更加公开,报告建议采取“信任但需验证”的方法。报告表示,AI模型开发者及其员工应有途径向公众报告重要事项,如内部安全测试,并需由第三方验证其测试声明。

虽然这份将于2025年6月最终定稿的报告未支持任何具体法律,但它在AI政策辩论双方专家中均受到好评。

乔治梅森大学专注于AI的研究员迪恩·鲍尔反对SB 1047,他在X上表示,这份报告为加州的AI安全规则迈出了积极一步。据加州州参议员斯科特·威纳介绍,这对AI安全倡导者来说也是一次胜利,他去年提出了SB 1047。威纳在一份新闻发布会上表示,这份报告为“我们在2024年立法机构中开始的关于AI治理的紧急讨论”增添了内容。

报告似乎部分同意SB 1047及威纳的下一项法案SB 53的内容,如要求AI模型开发者报告其安全测试结果。从更宏观的角度看,这对AI安全倡导者来说是一次急需的胜利,他们的理念在过去一年中逐渐失去影响力。

相关文章
使用HitPaw AI照片增强器提升您的图像:全面指南 使用HitPaw AI照片增强器提升您的图像:全面指南 想改变您的照片编辑体验吗?凭借尖端人工智能技术,改善您的图像现在变得轻而易举。本详细指南介绍了HitPaw AI照片增强器,这是一款离线AI工具,可自动提升图像质量和分辨率。无论您是经验丰富的摄影师还是希望优化个人快照的爱好者,HitPaw AI照片增强器都能提供强大的功能,带来惊艳的效果。主要亮点HitPaw AI照片增强器是一款适用于Windows和Mac的AI驱动解决方案,旨在提升图像质量。
AI驱动的音乐创作:轻松打造歌曲与视频 AI驱动的音乐创作:轻松打造歌曲与视频 音乐创作可能复杂,需要时间、资源和专业知识。人工智能已转变这一过程,使其简单易用。本指南介绍如何利用AI让任何人都能免费创作独特的歌曲和视觉效果,开启新的创作可能性。我们探索了具有直观界面和先进AI的平台,将您的音乐创意转化为现实,无需高昂成本。关键要点AI可生成完整歌曲,包括人声,而不仅是器乐。Suno AI和Hailuo AI等平台提供免费音乐创作工具。ChatGPT等AI工具可简化歌词创作,
创建AI驱动的着色书:综合指南 创建AI驱动的着色书:综合指南 设计着色书是一项回报丰厚的追求,结合艺术表达与用户放松体验。然而,过程可能劳动密集。幸运的是,AI工具简化了高质量、统一着色页的创建。本指南提供使用AI制作着色书的逐步方法,重点在于一致风格与最佳效率的技术。关键要点使用AI提示工具开发详细、结构化的着色页提示。确保着色书所有页面艺术风格的统一性。生成单一着色页设计的多样化变体。利用Ideogram等AI平台快速、高效创建着色书。优化提示以解决不一
评论 (35)
0/200
MichaelDavis
MichaelDavis 2025-04-17 20:14:46

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 2025-04-17 00:17:56

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 2025-04-16 12:13:53

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 2025-04-16 07:01:01

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 2025-04-16 01:16:25

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 2025-04-15 13:46:36

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

返回顶部
OR