Novo projeto de lei de IA introduzido na Califórnia pelo autor do SB 1047

Senador estadual da Califórnia Scott Wiener, que causou polêmica com o projeto de lei de segurança de IA SB 1047 no último ano, está de volta com outro projeto que promete agitar o Vale do Silício. Na sexta-feira, Wiener apresentou o SB 53, que visa proteger funcionários de grandes laboratórios de IA contra retaliações caso levantem preocupações sobre os sistemas de IA de suas empresas representarem um "risco crítico" para a sociedade. Além disso, o projeto propõe a criação do CalCompute, um cluster de computação em nuvem pública projetado para fornecer a pesquisadores e startups o poder computacional necessário para desenvolver IA para o bem público.
O projeto anterior de Wiener, SB 1047, gerou intenso debate nacional sobre como gerenciar grandes sistemas de IA que poderiam potencialmente levar a eventos catastróficos, como perda significativa de vidas ou ciberataques causando danos superiores a US$ 500 milhões. Apesar da controvérsia, o governador Gavin Newsom vetou o projeto em setembro, argumentando que não era a abordagem correta.
A reação ao SB 1047 foi intensa. Magnatas do Vale do Silício argumentaram que o projeto minaria a vantagem da América na corrida global de IA, alimentada por temores que consideravam infundados de cenários apocalípticos induzidos por IA. Wiener retrucou, acusando alguns capitalistas de risco de orquestrarem uma "campanha de propaganda" contra seu projeto. Notavelmente, a alegação da Y Combinator de que o SB 1047 poderia prender fundadores de startups foi considerada enganosa por especialistas.
O SB 53 parece ser uma mudança estratégica, focando nos elementos menos controversos do SB 1047. Ele enfatiza proteções a denunciantes e o estabelecimento do CalCompute. Wiener, no entanto, não recua em relação aos riscos existenciais da IA. O SB 53 protege claramente denunciantes que acreditam que seus empregadores estão desenvolvendo sistemas de IA que poderiam representar um "risco crítico", definido como um risco previsível ou material que poderia resultar na morte ou lesão grave de mais de 100 pessoas, ou danos superiores a US$ 1 bilhão.
O projeto tem como alvo desenvolvedores de modelos de IA de ponta, como OpenAI, Anthropic e xAI, proibindo-os de retaliar contra funcionários que relatam preocupações ao Procurador-Geral da Califórnia, autoridades federais ou outros funcionários. Esses desenvolvedores também devem relatar aos denunciantes sobre processos internos sinalizados como preocupantes.
Quanto ao CalCompute, o SB 53 criaria um grupo incluindo representantes da Universidade da Califórnia e outros pesquisadores para planejar seu desenvolvimento. Eles decidirão o tamanho do cluster e quem terá acesso a ele.
O SB 53 ainda está nas fases iniciais do processo legislativo, precisando da aprovação dos corpos legislativos da Califórnia antes de chegar à mesa do governador Newsom. A resposta do Vale do Silício a este novo projeto será observada de perto.
Aprovar projetos de lei de segurança de IA em 2025 pode ser mais difícil do que em 2024, quando a Califórnia aprovou 18 projetos relacionados à IA. O movimento de segurança de IA parece estar perdendo força, especialmente após os comentários do vice-presidente J.D. Vance no AI Action Summit de Paris, onde ele enfatizou a inovação em IA em vez da segurança. Embora o CalCompute possa ser visto como uma promoção do progresso da IA, o futuro dos esforços legislativos focados em riscos existenciais da IA permanece incerto.
[ttpp][yyxx]
Artigo relacionado
Da Bolha das Pontocom à IA: Lições para Evitar Armadilhas Tecnológicas do Passado
Durante o boom das pontocom, adicionar “.com” ao nome de uma empresa podia disparar o preço de suas ações, mesmo sem clientes, receita ou um modelo de negócios viável. Hoje, a mesma febre envolve “IA”
Ferramentas de Imagem por IA Desencadeiam Caos no Discord de Attack on Titan
O universo da criação de conteúdo impulsionada por IA é empolgante, porém imprevisível. O que acontece quando um grupo de entusiastas de anime ganha acesso a uma ferramenta de texto para imagem de pon
Otimizando a Seleção de Modelos de IA para Desempenho no Mundo Real
As empresas devem garantir que seus modelos de IA que impulsionam aplicações performem efetivamente em cenários do mundo real. Prever esses cenários pode ser desafiador, complicando as avaliações. O b
Comentários (26)
0/200
JerryLee
1 de Agosto de 2025 à18 03:48:18 WEST
This new AI bill sounds like a game-changer! Protecting whistleblowers in AI labs is crucial—those folks need a voice without fear of getting canned. But I bet Silicon Valley's big shots are sweating bullets over this one. 😅 Curious to see how it plays out!
0
AlbertThomas
20 de Abril de 2025 à43 20:20:43 WEST
위너 상원의원의 새로운 AI 법안은 유망하게 들리지만, 꽤 많은 논쟁을 불러일으키고 있어요. AI 연구소 직원들을 보복으로부터 보호하는 것은 중요하지만, 일부는 이것이 혁신을 늦출까봐 걱정하고 있어요. 미묘한 균형이지만, 누군가가 이런 문제를 다루고 있다는 것이 기쁩니다. 어떻게 될지 지켜봐야겠네요! 🤔
0
RalphHill
19 de Abril de 2025 à59 04:46:59 WEST
O novo projeto de lei de IA do senador Wiener parece promissor, mas está causando bastante debate. Proteger os funcionários dos laboratórios de IA de represálias é importante, mas alguns temem que isso possa desacelerar a inovação. É um equilíbrio delicado, mas estou feliz que alguém esteja abordando esses problemas. Vamos ver como isso se desenrola! 🤔
0
ScottEvans
18 de Abril de 2025 à44 16:48:44 WEST
The new AI bill by Senator Wiener sounds promising, but it's stirring up quite the debate. Protecting AI lab employees from retaliation is important, but some worry it might slow down innovation. It's a tricky balance, but I'm glad someone's addressing these issues. Let's see how it plays out! 🤔
0
ScottPerez
17 de Abril de 2025 à38 14:18:38 WEST
El nuevo proyecto de ley de IA del senador Wiener suena prometedor, pero está generando bastante debate. Proteger a los empleados de los laboratorios de IA de represalias es importante, pero algunos temen que pueda ralentizar la innovación. Es un equilibrio delicado, pero me alegra que alguien esté abordando estos problemas. ¡Vamos a ver cómo se desarrolla! 🤔
0
ChristopherTaylor
15 de Abril de 2025 à48 01:02:48 WEST
¡El SB 53 del Senador Wiener está causando revuelo otra vez! 🚨 Es genial que busque proteger a los empleados de los laboratorios de IA, pero me pregunto si realmente hará una diferencia. El Valle del Silicio siempre se resiste a las regulaciones. 🤔 ¡Veamos cómo se desarrolla esto!
0
Senador estadual da Califórnia Scott Wiener, que causou polêmica com o projeto de lei de segurança de IA SB 1047 no último ano, está de volta com outro projeto que promete agitar o Vale do Silício. Na sexta-feira, Wiener apresentou o SB 53, que visa proteger funcionários de grandes laboratórios de IA contra retaliações caso levantem preocupações sobre os sistemas de IA de suas empresas representarem um "risco crítico" para a sociedade. Além disso, o projeto propõe a criação do CalCompute, um cluster de computação em nuvem pública projetado para fornecer a pesquisadores e startups o poder computacional necessário para desenvolver IA para o bem público.
O projeto anterior de Wiener, SB 1047, gerou intenso debate nacional sobre como gerenciar grandes sistemas de IA que poderiam potencialmente levar a eventos catastróficos, como perda significativa de vidas ou ciberataques causando danos superiores a US$ 500 milhões. Apesar da controvérsia, o governador Gavin Newsom vetou o projeto em setembro, argumentando que não era a abordagem correta.
A reação ao SB 1047 foi intensa. Magnatas do Vale do Silício argumentaram que o projeto minaria a vantagem da América na corrida global de IA, alimentada por temores que consideravam infundados de cenários apocalípticos induzidos por IA. Wiener retrucou, acusando alguns capitalistas de risco de orquestrarem uma "campanha de propaganda" contra seu projeto. Notavelmente, a alegação da Y Combinator de que o SB 1047 poderia prender fundadores de startups foi considerada enganosa por especialistas.
O SB 53 parece ser uma mudança estratégica, focando nos elementos menos controversos do SB 1047. Ele enfatiza proteções a denunciantes e o estabelecimento do CalCompute. Wiener, no entanto, não recua em relação aos riscos existenciais da IA. O SB 53 protege claramente denunciantes que acreditam que seus empregadores estão desenvolvendo sistemas de IA que poderiam representar um "risco crítico", definido como um risco previsível ou material que poderia resultar na morte ou lesão grave de mais de 100 pessoas, ou danos superiores a US$ 1 bilhão.
O projeto tem como alvo desenvolvedores de modelos de IA de ponta, como OpenAI, Anthropic e xAI, proibindo-os de retaliar contra funcionários que relatam preocupações ao Procurador-Geral da Califórnia, autoridades federais ou outros funcionários. Esses desenvolvedores também devem relatar aos denunciantes sobre processos internos sinalizados como preocupantes.
Quanto ao CalCompute, o SB 53 criaria um grupo incluindo representantes da Universidade da Califórnia e outros pesquisadores para planejar seu desenvolvimento. Eles decidirão o tamanho do cluster e quem terá acesso a ele.
O SB 53 ainda está nas fases iniciais do processo legislativo, precisando da aprovação dos corpos legislativos da Califórnia antes de chegar à mesa do governador Newsom. A resposta do Vale do Silício a este novo projeto será observada de perto.
Aprovar projetos de lei de segurança de IA em 2025 pode ser mais difícil do que em 2024, quando a Califórnia aprovou 18 projetos relacionados à IA. O movimento de segurança de IA parece estar perdendo força, especialmente após os comentários do vice-presidente J.D. Vance no AI Action Summit de Paris, onde ele enfatizou a inovação em IA em vez da segurança. Embora o CalCompute possa ser visto como uma promoção do progresso da IA, o futuro dos esforços legislativos focados em riscos existenciais da IA permanece incerto.
[ttpp][yyxx]




This new AI bill sounds like a game-changer! Protecting whistleblowers in AI labs is crucial—those folks need a voice without fear of getting canned. But I bet Silicon Valley's big shots are sweating bullets over this one. 😅 Curious to see how it plays out!




위너 상원의원의 새로운 AI 법안은 유망하게 들리지만, 꽤 많은 논쟁을 불러일으키고 있어요. AI 연구소 직원들을 보복으로부터 보호하는 것은 중요하지만, 일부는 이것이 혁신을 늦출까봐 걱정하고 있어요. 미묘한 균형이지만, 누군가가 이런 문제를 다루고 있다는 것이 기쁩니다. 어떻게 될지 지켜봐야겠네요! 🤔




O novo projeto de lei de IA do senador Wiener parece promissor, mas está causando bastante debate. Proteger os funcionários dos laboratórios de IA de represálias é importante, mas alguns temem que isso possa desacelerar a inovação. É um equilíbrio delicado, mas estou feliz que alguém esteja abordando esses problemas. Vamos ver como isso se desenrola! 🤔




The new AI bill by Senator Wiener sounds promising, but it's stirring up quite the debate. Protecting AI lab employees from retaliation is important, but some worry it might slow down innovation. It's a tricky balance, but I'm glad someone's addressing these issues. Let's see how it plays out! 🤔




El nuevo proyecto de ley de IA del senador Wiener suena prometedor, pero está generando bastante debate. Proteger a los empleados de los laboratorios de IA de represalias es importante, pero algunos temen que pueda ralentizar la innovación. Es un equilibrio delicado, pero me alegra que alguien esté abordando estos problemas. ¡Vamos a ver cómo se desarrolla! 🤔




¡El SB 53 del Senador Wiener está causando revuelo otra vez! 🚨 Es genial que busque proteger a los empleados de los laboratorios de IA, pero me pregunto si realmente hará una diferencia. El Valle del Silicio siempre se resiste a las regulaciones. 🤔 ¡Veamos cómo se desarrolla esto!












