вариант
Дом
Новости
Группа Fei-Fei Li побуждает превентивное законодательство о безопасности ИИ

Группа Fei-Fei Li побуждает превентивное законодательство о безопасности ИИ

10 апреля 2025 г.
152

Группа Fei-Fei Li побуждает превентивное законодательство о безопасности ИИ

Новый отчет калифорнийской политической группы, возглавляемой пионером ИИ Фей-Фей Ли, предлагает законодателям учитывать риски ИИ, которые еще не наблюдались в реальном мире, при создании регулирующих политик в области ИИ. Этот промежуточный отчет на 41 странице, опубликованный во вторник, подготовлен Совместной калифорнийской рабочей группой по передовым моделям ИИ, созданной губернатором Гэвином Ньюсомом после того, как он наложил вето на спорный законопроект Калифорнии о безопасности ИИ, SB 1047. Ньюсом считал, что SB 1047 не совсем соответствует цели, но признал необходимость более глубокого изучения рисков ИИ для руководства законодателями.

В отчете Ли, совместно с соавторами Дженнифер Чейз, деканом Колледжа вычислительных наук Калифорнийского университета в Беркли, и Мариано-Флорентино Куэльяром, президентом Фонда Карнеги за международный мир, настаивают на принятии законов, которые сделали бы более прозрачной деятельность передовых лабораторий ИИ, таких как OpenAI. Перед публикацией отчет был рассмотрен представителями индустрии из разных сфер, включая убежденных сторонников безопасности ИИ, таких как лауреат премии Тьюринга Йошуа Бенжио, и тех, кто выступал против SB 1047, например, сооснователь Databricks Ион Стоика.

В отчете указано, что новые риски от систем ИИ могут потребовать принятия законов, обязывающих разработчиков моделей ИИ делиться с общественностью результатами своих тестов безопасности, информацией о том, как они получают данные, и мерами безопасности. Также предлагается разработать лучшие стандарты для сторонних проверок этих аспектов и корпоративных политик, а также усилить защиту для сотрудников и подрядчиков компаний ИИ, которые сигнализируют о нарушениях.

Ли и ее соавторы отмечают, что пока недостаточно доказательств того, что ИИ может способствовать кибератакам, созданию биологического оружия или другим «экстремальным» опасностям. Однако они также подчеркивают, что политика в области ИИ не должна ограничиваться только текущими проблемами; она должна учитывать, что может произойти в будущем, если не будет достаточных мер безопасности.

В отчете используется пример ядерного оружия: «Нам не нужно видеть, как взрывается ядерное оружие, чтобы знать, что оно может нанести огромный ущерб». Далее говорится: «Если те, кто говорит о наихудших рисках, окажутся правы — а мы не уверены, будет ли это так, — то бездействие в отношении передовых моделей ИИ сейчас может обойтись очень дорого».

Чтобы сделать разработку моделей ИИ более открытой, в отчете предлагается подход «доверяй, но проверяй». Разработчики моделей ИИ и их сотрудники должны иметь возможность сообщать общественности о важных аспектах, таких как внутренние тесты безопасности, а также обязаны подвергать свои заявления о тестировании проверке третьими сторонами.

Хотя отчет, который будет завершен в июне 2025 года, не поддерживает конкретные законы, он получил положительные отзывы от экспертов по обе стороны дебатов о политике в области ИИ.

Дин Болл, научный сотрудник Университета Джорджа Мейсона, специализирующийся на ИИ и не поддерживающий SB 1047, заявил на X, что отчет является шагом вперед для правил безопасности ИИ в Калифорнии. Это также победа для сторонников безопасности ИИ, по словам сенатора штата Калифорния Скотта Винера, который представил SB 1047 в прошлом году. Винер заявил в пресс-релизе, что отчет дополняет «срочные обсуждения управления ИИ, которые мы начали в законодательном органе в 2024 году».

Отчет, похоже, согласуется с частями SB 1047 и следующего законопроекта Винера, SB 53, такими как требование к разработчикам моделей ИИ отчитываться о результатах тестов безопасности. В более широкой перспективе это выглядит как столь необходимая победа для сторонников безопасности ИИ, чьи идеи теряли популярность в течение последнего года.

Связанная статья
Сопроводительные письма на основе искусственного интеллекта: Экспертное руководство по подаче документов в журнал Сопроводительные письма на основе искусственного интеллекта: Экспертное руководство по подаче документов в журнал В сегодняшней конкурентной среде научных изданий составление эффективного сопроводительного письма может сыграть решающую роль в принятии вашей рукописи. Узнайте, как инструменты с искусственным интел
США введут санкции против иностранных чиновников из-за правил пользования социальными сетями США введут санкции против иностранных чиновников из-за правил пользования социальными сетями США выступают против глобального регулирования цифрового контентаНа этой неделе Государственный департамент США выступил с резким дипломатическим обвинением в адрес европейской политики управления ц
Окончательное руководство по обобщающим анализаторам видео на YouTube с поддержкой искусственного интеллекта Окончательное руководство по обобщающим анализаторам видео на YouTube с поддержкой искусственного интеллекта В нашем перенасыщенном информацией цифровом ландшафте, обобщающие видео на YouTube с помощью искусственного интеллекта стали незаменимы для эффективного потребления контента. В этом подробном руководс
Комментарии (37)
HarrySmith
HarrySmith 28 августа 2025 г., 0:01:36 GMT+03:00

This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?

PaulHill
PaulHill 25 августа 2025 г., 18:01:14 GMT+03:00

Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!

MichaelDavis
MichaelDavis 17 апреля 2025 г., 15:14:46 GMT+03:00

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 16 апреля 2025 г., 19:17:56 GMT+03:00

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 16 апреля 2025 г., 7:13:53 GMT+03:00

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 16 апреля 2025 г., 2:01:01 GMT+03:00

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

Вернуться к вершине
OR