Новый законопроект AI, представленный в Калифорнии автором SB 1047

Сенатор штата Калифорния Скотт Винер, вызвавший бурные споры с прошлогодним противоречивым законопроектом о безопасности ИИ SB 1047, вернулся с новым законопроектом, который, вероятно, снова всколыхнёт Кремниевую долину. В пятницу Винер представил SB 53, который направлен на защиту сотрудников крупных лабораторий ИИ от репрессий, если они выразят обеспокоенность тем, что системы ИИ их компаний представляют «критический риск» для общества. Кроме того, законопроект предлагает создание CalCompute, публичного облачного вычислительного кластера, предназначенного для предоставления исследователям и стартапам вычислительных мощностей, необходимых для разработки ИИ в интересах общества.
Предыдущий законопроект Винера, SB 1047, вызвал ожесточённые национальные дебаты о том, как управлять крупными системами ИИ, которые потенциально могут привести к катастрофическим событиям, таким как значительные человеческие жертвы или кибератаки, наносящие ущерб более чем на 500 миллионов долларов. Несмотря на споры, губернатор Гэвин Ньюсом наложил вето на законопроект в сентябре, утверждая, что это не правильный подход.
Последствия SB 1047 были серьёзными. Крупные игроки Кремниевой долины утверждали, что законопроект подорвёт преимущество Америки в глобальной гонке ИИ, подпитываемой, по их мнению, необоснованными страхами апокалиптических сценариев, вызванных ИИ. Винер в ответ обвинил некоторых венчурных капиталистов в организации «пропагандистской кампании» против его законопроекта. В частности, утверждение Y Combinator о том, что SB 1047 может привести к тюремному заключению основателей стартапов, эксперты назвали вводящим в заблуждение.
SB 53, похоже, представляет собой стратегический поворот, сосредоточившись на менее спорных элементах SB 1047. Он акцентирует внимание на защите информаторов и создании CalCompute. Однако Винер не отступает от темы экзистенциальных рисков ИИ. SB 53 чётко защищает информаторов, которые считают, что их работодатели разрабатывают системы ИИ, которые могут представлять «критический риск», определяемый как предвидимый или значительный риск, который может привести к гибели или серьёзным травмам более 100 человек или ущербу более чем на 1 миллиард долларов.
Законопроект нацелен на разработчиков передовых моделей ИИ, таких как OpenAI, Anthropic и xAI, запрещая им принимать меры против сотрудников, которые сообщают о своих опасениях генеральному прокурору Калифорнии, федеральным властям или другим сотрудникам. Эти разработчики также должны отчитываться перед информаторами о внутренних процессах, вызывающих обеспокоенность.
Что касается CalCompute, SB 53 предусматривает создание группы, включающей представителей Университета Калифорнии и других исследователей, для планирования его разработки. Они определят размер кластера и круг лиц, которые получат к нему доступ.
SB 53 находится на ранней стадии законодательного процесса и должен получить одобрение законодательных органов Калифорнии, прежде чем попадёт на стол губернатора Ньюсома. Реакция Кремниевой долины на этот новый законопроект будет внимательно отслеживаться.
Принятие законопроектов о безопасности ИИ в 2025 году может оказаться сложнее, чем в 2024 году, когда Калифорния приняла 18 связанных с ИИ законопроектов. Движение за безопасность ИИ, похоже, теряет импульс, особенно после комментариев вице-президента Джей Ди Вэнса на Парижском саммите по действиям в области ИИ, где он сделал акцент на инновациях в ИИ, а не на безопасности. Хотя CalCompute может рассматриваться как способ продвижения прогресса в области ИИ, будущее законодательных инициатив, сосредоточенных на экзистенциальных рисках ИИ, остаётся неопределённым.
[ttpp][yyxx]
Связанная статья
От доткомов к ИИ: уроки избегания прошлых технологических ошибок
Во время бума доткомов добавление «.com» к названию компании могло резко поднять цену акций, даже без клиентов, доходов или жизнеспособной бизнес-модели. Сегодня подобный ажиотаж окружает «ИИ», и комп
Инструменты ИИ для создания изображений вызывают хаос в Discord-сообществе «Атака титанов»
Мир создания контента с помощью ИИ захватывающий, но непредсказуемый. Что происходит, когда группа фанатов аниме получает доступ к передовому инструменту преобразования текста в изображения? Полный ха
Оптимизация выбора модели ИИ для реальной производительности
Предприятия должны обеспечивать эффективную работу моделей ИИ, управляющих приложениями, в реальных сценариях. Предсказание этих сценариев может быть сложным, что затрудняет оценку. Обновленный бенчма
Комментарии (26)
JerryLee
1 августа 2025 г., 5:48:18 GMT+03:00
This new AI bill sounds like a game-changer! Protecting whistleblowers in AI labs is crucial—those folks need a voice without fear of getting canned. But I bet Silicon Valley's big shots are sweating bullets over this one. 😅 Curious to see how it plays out!
0
AlbertThomas
20 апреля 2025 г., 22:20:43 GMT+03:00
위너 상원의원의 새로운 AI 법안은 유망하게 들리지만, 꽤 많은 논쟁을 불러일으키고 있어요. AI 연구소 직원들을 보복으로부터 보호하는 것은 중요하지만, 일부는 이것이 혁신을 늦출까봐 걱정하고 있어요. 미묘한 균형이지만, 누군가가 이런 문제를 다루고 있다는 것이 기쁩니다. 어떻게 될지 지켜봐야겠네요! 🤔
0
RalphHill
19 апреля 2025 г., 6:46:59 GMT+03:00
O novo projeto de lei de IA do senador Wiener parece promissor, mas está causando bastante debate. Proteger os funcionários dos laboratórios de IA de represálias é importante, mas alguns temem que isso possa desacelerar a inovação. É um equilíbrio delicado, mas estou feliz que alguém esteja abordando esses problemas. Vamos ver como isso se desenrola! 🤔
0
ScottEvans
18 апреля 2025 г., 18:48:44 GMT+03:00
The new AI bill by Senator Wiener sounds promising, but it's stirring up quite the debate. Protecting AI lab employees from retaliation is important, but some worry it might slow down innovation. It's a tricky balance, but I'm glad someone's addressing these issues. Let's see how it plays out! 🤔
0
ScottPerez
17 апреля 2025 г., 16:18:38 GMT+03:00
El nuevo proyecto de ley de IA del senador Wiener suena prometedor, pero está generando bastante debate. Proteger a los empleados de los laboratorios de IA de represalias es importante, pero algunos temen que pueda ralentizar la innovación. Es un equilibrio delicado, pero me alegra que alguien esté abordando estos problemas. ¡Vamos a ver cómo se desarrolla! 🤔
0
ChristopherTaylor
15 апреля 2025 г., 3:02:48 GMT+03:00
¡El SB 53 del Senador Wiener está causando revuelo otra vez! 🚨 Es genial que busque proteger a los empleados de los laboratorios de IA, pero me pregunto si realmente hará una diferencia. El Valle del Silicio siempre se resiste a las regulaciones. 🤔 ¡Veamos cómo se desarrolla esto!
0
Сенатор штата Калифорния Скотт Винер, вызвавший бурные споры с прошлогодним противоречивым законопроектом о безопасности ИИ SB 1047, вернулся с новым законопроектом, который, вероятно, снова всколыхнёт Кремниевую долину. В пятницу Винер представил SB 53, который направлен на защиту сотрудников крупных лабораторий ИИ от репрессий, если они выразят обеспокоенность тем, что системы ИИ их компаний представляют «критический риск» для общества. Кроме того, законопроект предлагает создание CalCompute, публичного облачного вычислительного кластера, предназначенного для предоставления исследователям и стартапам вычислительных мощностей, необходимых для разработки ИИ в интересах общества.
Предыдущий законопроект Винера, SB 1047, вызвал ожесточённые национальные дебаты о том, как управлять крупными системами ИИ, которые потенциально могут привести к катастрофическим событиям, таким как значительные человеческие жертвы или кибератаки, наносящие ущерб более чем на 500 миллионов долларов. Несмотря на споры, губернатор Гэвин Ньюсом наложил вето на законопроект в сентябре, утверждая, что это не правильный подход.
Последствия SB 1047 были серьёзными. Крупные игроки Кремниевой долины утверждали, что законопроект подорвёт преимущество Америки в глобальной гонке ИИ, подпитываемой, по их мнению, необоснованными страхами апокалиптических сценариев, вызванных ИИ. Винер в ответ обвинил некоторых венчурных капиталистов в организации «пропагандистской кампании» против его законопроекта. В частности, утверждение Y Combinator о том, что SB 1047 может привести к тюремному заключению основателей стартапов, эксперты назвали вводящим в заблуждение.
SB 53, похоже, представляет собой стратегический поворот, сосредоточившись на менее спорных элементах SB 1047. Он акцентирует внимание на защите информаторов и создании CalCompute. Однако Винер не отступает от темы экзистенциальных рисков ИИ. SB 53 чётко защищает информаторов, которые считают, что их работодатели разрабатывают системы ИИ, которые могут представлять «критический риск», определяемый как предвидимый или значительный риск, который может привести к гибели или серьёзным травмам более 100 человек или ущербу более чем на 1 миллиард долларов.
Законопроект нацелен на разработчиков передовых моделей ИИ, таких как OpenAI, Anthropic и xAI, запрещая им принимать меры против сотрудников, которые сообщают о своих опасениях генеральному прокурору Калифорнии, федеральным властям или другим сотрудникам. Эти разработчики также должны отчитываться перед информаторами о внутренних процессах, вызывающих обеспокоенность.
Что касается CalCompute, SB 53 предусматривает создание группы, включающей представителей Университета Калифорнии и других исследователей, для планирования его разработки. Они определят размер кластера и круг лиц, которые получат к нему доступ.
SB 53 находится на ранней стадии законодательного процесса и должен получить одобрение законодательных органов Калифорнии, прежде чем попадёт на стол губернатора Ньюсома. Реакция Кремниевой долины на этот новый законопроект будет внимательно отслеживаться.
Принятие законопроектов о безопасности ИИ в 2025 году может оказаться сложнее, чем в 2024 году, когда Калифорния приняла 18 связанных с ИИ законопроектов. Движение за безопасность ИИ, похоже, теряет импульс, особенно после комментариев вице-президента Джей Ди Вэнса на Парижском саммите по действиям в области ИИ, где он сделал акцент на инновациях в ИИ, а не на безопасности. Хотя CalCompute может рассматриваться как способ продвижения прогресса в области ИИ, будущее законодательных инициатив, сосредоточенных на экзистенциальных рисках ИИ, остаётся неопределённым.
[ttpp][yyxx]




This new AI bill sounds like a game-changer! Protecting whistleblowers in AI labs is crucial—those folks need a voice without fear of getting canned. But I bet Silicon Valley's big shots are sweating bullets over this one. 😅 Curious to see how it plays out!




위너 상원의원의 새로운 AI 법안은 유망하게 들리지만, 꽤 많은 논쟁을 불러일으키고 있어요. AI 연구소 직원들을 보복으로부터 보호하는 것은 중요하지만, 일부는 이것이 혁신을 늦출까봐 걱정하고 있어요. 미묘한 균형이지만, 누군가가 이런 문제를 다루고 있다는 것이 기쁩니다. 어떻게 될지 지켜봐야겠네요! 🤔




O novo projeto de lei de IA do senador Wiener parece promissor, mas está causando bastante debate. Proteger os funcionários dos laboratórios de IA de represálias é importante, mas alguns temem que isso possa desacelerar a inovação. É um equilíbrio delicado, mas estou feliz que alguém esteja abordando esses problemas. Vamos ver como isso se desenrola! 🤔




The new AI bill by Senator Wiener sounds promising, but it's stirring up quite the debate. Protecting AI lab employees from retaliation is important, but some worry it might slow down innovation. It's a tricky balance, but I'm glad someone's addressing these issues. Let's see how it plays out! 🤔




El nuevo proyecto de ley de IA del senador Wiener suena prometedor, pero está generando bastante debate. Proteger a los empleados de los laboratorios de IA de represalias es importante, pero algunos temen que pueda ralentizar la innovación. Es un equilibrio delicado, pero me alegra que alguien esté abordando estos problemas. ¡Vamos a ver cómo se desarrolla! 🤔




¡El SB 53 del Senador Wiener está causando revuelo otra vez! 🚨 Es genial que busque proteger a los empleados de los laboratorios de IA, pero me pregunto si realmente hará una diferencia. El Valle del Silicio siempre se resiste a las regulaciones. 🤔 ¡Veamos cómo se desarrolla esto!












