opção
Lar
Notícias
O grupo de Fei-FEI Li pede legislação de segurança de IA preventiva

O grupo de Fei-FEI Li pede legislação de segurança de IA preventiva

10 de Abril de 2025
152

O grupo de Fei-FEI Li pede legislação de segurança de IA preventiva

Um novo relatório de um grupo de políticas da Califórnia, co-liderado pela pioneira em IA Fei-Fei Li, sugere que os legisladores devem considerar os riscos da IA que ainda não foram observados no mundo real ao criar políticas regulatórias para IA. Este relatório interino de 41 páginas, divulgado na terça-feira, vem do Grupo de Trabalho Conjunto de Políticas da Califórnia sobre Modelos de Fronteira de IA, estabelecido pelo governador Gavin Newsom após ele vetar o controverso projeto de lei de segurança de IA da Califórnia, SB 1047. Newsom sentiu que o SB 1047 não atingiu exatamente o alvo, mas reconheceu a necessidade de uma análise mais profunda dos riscos da IA para orientar os legisladores.

No relatório, Li, junto com os coautores Jennifer Chayes, decana da Faculdade de Computação da UC Berkeley, e Mariano-Florentino Cuéllar, presidente da Carnegie Endowment for International Peace, defendem leis que tornem mais claro o que os laboratórios de IA de fronteira, como a OpenAI, estão fazendo. Antes de o relatório ser tornado público, ele foi revisado por pessoas da indústria de diversas áreas, incluindo fortes apoiadores da segurança de IA, como o vencedor do Prêmio Turing, Yoshua Bengio, e aqueles que se opuseram ao SB 1047, como o cofundador da Databricks, Ion Stoica.

O relatório destaca que os novos riscos dos sistemas de IA podem significar que precisamos de leis que obriguem os desenvolvedores de modelos de IA a compartilhar seus testes de segurança, como obtêm seus dados e suas medidas de segurança com o público. Ele também pede melhores padrões para verificações de terceiros sobre essas questões e políticas das empresas, além de mais proteções para trabalhadores e contratados de empresas de IA que denunciam irregularidades.

Li e seus coautores mencionam que ainda não há provas suficientes sobre o potencial da IA para ajudar em ataques cibernéticos, fabricar armas biológicas ou causar outros perigos "extremos". Mas eles também dizem que a política de IA não deve apenas lidar com o que está acontecendo agora; ela também deve pensar no que pode acontecer no futuro se não houver medidas de segurança suficientes em vigor.

O relatório usa o exemplo de uma arma nuclear, dizendo: "Não precisamos ver uma arma nuclear explodir para saber que ela pode causar muitos danos." Ele continua dizendo: "Se aqueles que falam sobre os piores riscos estiverem certos — e não temos certeza se estarão — então não fazer nada sobre a IA de fronteira agora pode ser realmente custoso."

Para tornar o desenvolvimento de modelos de IA mais aberto, o relatório sugere uma abordagem de "confiar, mas verificar". Ele diz que os desenvolvedores de modelos de IA e seus trabalhadores devem ter maneiras de relatar coisas que importam para o público, como testes de segurança internos, e também devem ter suas alegações de testes verificadas por terceiros.

Embora o relatório, que será finalizado em junho de 2025, não apoie nenhuma lei específica, ele foi bem recebido por especialistas de ambos os lados do debate sobre políticas de IA.

Dean Ball, um pesquisador focado em IA na George Mason University que não gostou do SB 1047, disse no X que o relatório é um bom passo para as regras de segurança de IA da Califórnia. Também é uma vitória para os defensores da segurança de IA, segundo o senador estadual da Califórnia, Scott Wiener, que apresentou o SB 1047 no último ano. Wiener disse em um comunicado à imprensa que o relatório contribui para as "conversas urgentes sobre governança de IA que começamos na legislatura em 2024."

O relatório parece concordar com partes do SB 1047 e com o próximo projeto de lei de Wiener, SB 53, como fazer com que os desenvolvedores de modelos de IA relatem os resultados de seus testes de segurança. Olhando para o quadro geral, parece uma vitória muito necessária para os defensores da segurança de IA, cujas ideias têm perdido terreno no último ano.

Artigo relacionado
Cartas de apresentação com tecnologia de IA: Guia especializado para submissão de artigos em periódicos Cartas de apresentação com tecnologia de IA: Guia especializado para submissão de artigos em periódicos No competitivo ambiente de publicação acadêmica de hoje, a elaboração de uma carta de apresentação eficaz pode fazer a diferença crucial na aceitação do seu manuscrito. Descubra como as ferramentas co
EUA sancionarão autoridades estrangeiras por causa de regulamentações de mídia social EUA sancionarão autoridades estrangeiras por causa de regulamentações de mídia social EUA se posicionam contra as regulamentações globais de conteúdo digitalO Departamento de Estado emitiu uma forte repreensão diplomática nesta semana, visando às políticas europeias de governança dig
Guia definitivo para resumidores de vídeos do YouTube com tecnologia de IA Guia definitivo para resumidores de vídeos do YouTube com tecnologia de IA Em nosso cenário digital rico em informações, os resumidores de vídeo do YouTube com tecnologia de IA se tornaram indispensáveis para o consumo eficiente de conteúdo. Este guia detalhado explora como
Comentários (37)
0/200
HarrySmith
HarrySmith 27 de Agosto de 2025 à36 22:01:36 WEST

This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?

PaulHill
PaulHill 25 de Agosto de 2025 à14 16:01:14 WEST

Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!

MichaelDavis
MichaelDavis 17 de Abril de 2025 à46 13:14:46 WEST

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 16 de Abril de 2025 à56 17:17:56 WEST

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 16 de Abril de 2025 à53 05:13:53 WEST

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 16 de Abril de 2025 à1 00:01:01 WEST

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

De volta ao topo
OR