вариант
Дом
Новости
Группа Fei-Fei Li побуждает превентивное законодательство о безопасности ИИ

Группа Fei-Fei Li побуждает превентивное законодательство о безопасности ИИ

10 апреля 2025 г.
124

Группа Fei-Fei Li побуждает превентивное законодательство о безопасности ИИ

Новый отчет калифорнийской политической группы, возглавляемой пионером ИИ Фей-Фей Ли, предлагает законодателям учитывать риски ИИ, которые еще не наблюдались в реальном мире, при создании регулирующих политик в области ИИ. Этот промежуточный отчет на 41 странице, опубликованный во вторник, подготовлен Совместной калифорнийской рабочей группой по передовым моделям ИИ, созданной губернатором Гэвином Ньюсомом после того, как он наложил вето на спорный законопроект Калифорнии о безопасности ИИ, SB 1047. Ньюсом считал, что SB 1047 не совсем соответствует цели, но признал необходимость более глубокого изучения рисков ИИ для руководства законодателями.

В отчете Ли, совместно с соавторами Дженнифер Чейз, деканом Колледжа вычислительных наук Калифорнийского университета в Беркли, и Мариано-Флорентино Куэльяром, президентом Фонда Карнеги за международный мир, настаивают на принятии законов, которые сделали бы более прозрачной деятельность передовых лабораторий ИИ, таких как OpenAI. Перед публикацией отчет был рассмотрен представителями индустрии из разных сфер, включая убежденных сторонников безопасности ИИ, таких как лауреат премии Тьюринга Йошуа Бенжио, и тех, кто выступал против SB 1047, например, сооснователь Databricks Ион Стоика.

В отчете указано, что новые риски от систем ИИ могут потребовать принятия законов, обязывающих разработчиков моделей ИИ делиться с общественностью результатами своих тестов безопасности, информацией о том, как они получают данные, и мерами безопасности. Также предлагается разработать лучшие стандарты для сторонних проверок этих аспектов и корпоративных политик, а также усилить защиту для сотрудников и подрядчиков компаний ИИ, которые сигнализируют о нарушениях.

Ли и ее соавторы отмечают, что пока недостаточно доказательств того, что ИИ может способствовать кибератакам, созданию биологического оружия или другим «экстремальным» опасностям. Однако они также подчеркивают, что политика в области ИИ не должна ограничиваться только текущими проблемами; она должна учитывать, что может произойти в будущем, если не будет достаточных мер безопасности.

В отчете используется пример ядерного оружия: «Нам не нужно видеть, как взрывается ядерное оружие, чтобы знать, что оно может нанести огромный ущерб». Далее говорится: «Если те, кто говорит о наихудших рисках, окажутся правы — а мы не уверены, будет ли это так, — то бездействие в отношении передовых моделей ИИ сейчас может обойтись очень дорого».

Чтобы сделать разработку моделей ИИ более открытой, в отчете предлагается подход «доверяй, но проверяй». Разработчики моделей ИИ и их сотрудники должны иметь возможность сообщать общественности о важных аспектах, таких как внутренние тесты безопасности, а также обязаны подвергать свои заявления о тестировании проверке третьими сторонами.

Хотя отчет, который будет завершен в июне 2025 года, не поддерживает конкретные законы, он получил положительные отзывы от экспертов по обе стороны дебатов о политике в области ИИ.

Дин Болл, научный сотрудник Университета Джорджа Мейсона, специализирующийся на ИИ и не поддерживающий SB 1047, заявил на X, что отчет является шагом вперед для правил безопасности ИИ в Калифорнии. Это также победа для сторонников безопасности ИИ, по словам сенатора штата Калифорния Скотта Винера, который представил SB 1047 в прошлом году. Винер заявил в пресс-релизе, что отчет дополняет «срочные обсуждения управления ИИ, которые мы начали в законодательном органе в 2024 году».

Отчет, похоже, согласуется с частями SB 1047 и следующего законопроекта Винера, SB 53, такими как требование к разработчикам моделей ИИ отчитываться о результатах тестов безопасности. В более широкой перспективе это выглядит как столь необходимая победа для сторонников безопасности ИИ, чьи идеи теряли популярность в течение последнего года.

Связанная статья
Создание раскрасок с использованием ИИ: Полное руководство Создание раскрасок с использованием ИИ: Полное руководство Создание раскрасок — это увлекательное занятие, сочетающее художественное выражение с успокаивающим опытом для пользователей. Однако процесс может быть трудоемким. К счастью, инструменты ИИ упрощают с
Qodo сотрудничает с Google Cloud для предоставления бесплатных инструментов AI для проверки кода разработчикам Qodo сотрудничает с Google Cloud для предоставления бесплатных инструментов AI для проверки кода разработчикам Qodo, израильский стартап в области AI-кодирования, ориентированный на качество кода, начал сотрудничество с Google Cloud для повышения целостности программного обеспечения, созданного AI.По мере рост
DeepMind's AI Secures Gold at 2025 Math Olympiad DeepMind's AI Secures Gold at 2025 Math Olympiad ИИ DeepMind достиг потрясающего прорыва в математическом мышлении, завоевав золотую медаль на Международной математической олимпиаде (IMO) 2025 года, всего через год после получения серебра в 2024 год
Комментарии (35)
MichaelDavis
MichaelDavis 17 апреля 2025 г., 15:14:46 GMT+03:00

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 16 апреля 2025 г., 19:17:56 GMT+03:00

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 16 апреля 2025 г., 7:13:53 GMT+03:00

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 16 апреля 2025 г., 2:01:01 GMT+03:00

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 15 апреля 2025 г., 20:16:25 GMT+03:00

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 15 апреля 2025 г., 8:46:36 GMT+03:00

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

Вернуться к вершине
OR