opción
Hogar
Noticias
El grupo de Fei-Fei Li insta a la legislación preventiva de seguridad de IA

El grupo de Fei-Fei Li insta a la legislación preventiva de seguridad de IA

10 de abril de 2025
124

El grupo de Fei-Fei Li insta a la legislación preventiva de seguridad de IA

Un nuevo informe de un grupo de políticas de California, co-liderado por la pionera en IA Fei-Fei Li, sugiere que los legisladores deberían considerar los riesgos de la IA que aún no se han visto en el mundo real al crear políticas regulatorias de IA. Este informe interino de 41 páginas, publicado el martes, proviene del Grupo de Trabajo de Políticas Conjuntas de California sobre Modelos de Frontera de IA, establecido por el gobernador Gavin Newsom tras vetar el controvertido proyecto de ley de seguridad de IA de California, SB 1047. Newsom consideró que SB 1047 no dio en el blanco, pero reconoció la necesidad de un análisis más profundo de los riesgos de la IA para guiar a los legisladores.

En el informe, Li, junto con los coautores Jennifer Chayes, decana del Colegio de Computación de UC Berkeley, y Mariano-Florentino Cuéllar, presidente de la Carnegie Endowment for International Peace, abogan por leyes que aclaren qué están haciendo los laboratorios de IA de frontera como OpenAI. Antes de que el informe se hiciera público, fue revisado por personas de la industria de diversos ámbitos, incluyendo fervientes defensores de la seguridad de la IA como el ganador del Premio Turing Yoshua Bengio y aquellos que se opusieron a SB 1047, como el cofundador de Databricks, Ion Stoica.

El informe señala que los nuevos riesgos de los sistemas de IA podrían implicar la necesidad de leyes que obliguen a los desarrolladores de modelos de IA a compartir sus pruebas de seguridad, cómo obtienen sus datos y sus medidas de seguridad con el público. También pide mejores estándares para verificaciones de terceros sobre estas cosas y las políticas de las empresas, además de más protecciones para los trabajadores y contratistas de empresas de IA que denuncien irregularidades.

Li y sus coautores mencionan que aún no hay pruebas suficientes sobre el potencial de la IA para ayudar con ciberataques, crear armas biológicas o causar otros peligros "extremos". Pero también dicen que la política de IA no debería solo abordar lo que está sucediendo ahora; también debería pensar en lo que podría pasar en el futuro si no hay suficientes medidas de seguridad en su lugar.

El informe usa el ejemplo de un arma nuclear, diciendo: "No necesitamos ver explotar un arma nuclear para saber que podría causar mucho daño." Continúa diciendo: "Si aquellos que hablan de los peores riesgos tienen razón —y no estamos seguros de si lo tendrán— entonces no hacer nada respecto a la IA de frontera ahora podría ser realmente costoso."

Para hacer el desarrollo de modelos de IA más abierto, el informe sugiere un enfoque de "confiar pero verificar". Dice que los desarrolladores de modelos de IA y sus trabajadores deberían tener formas de informar sobre cosas que importan al público, como las pruebas de seguridad internas, y también deberían hacer que sus afirmaciones de pruebas sean verificadas por terceros.

Aunque el informe, que se finalizará en junio de 2025, no respalda ninguna ley específica, ha sido bien recibido por expertos de ambos lados del debate sobre políticas de IA.

Dean Ball, un investigador enfocado en IA en la Universidad George Mason que no estaba a favor de SB 1047, dijo en X que el informe es un buen paso para las reglas de seguridad de IA de California. También es una victoria para los defensores de la seguridad de IA, según el senador estatal de California Scott Wiener, quien presentó SB 1047 el año pasado. Wiener dijo en un comunicado de prensa que el informe contribuye a las "conversaciones urgentes sobre la gobernanza de la IA que comenzamos en la legislatura en 2024."

El informe parece estar de acuerdo con partes de SB 1047 y el próximo proyecto de ley de Wiener, SB 53, como hacer que los desarrolladores de modelos de IA informen los resultados de sus pruebas de seguridad. En una perspectiva más amplia, parece una victoria muy necesaria para los defensores de la seguridad de la IA, cuyas ideas han estado perdiendo terreno durante el último año.

Artículo relacionado
Creación de Libros para Colorear Impulsados por IA: Una Guía Completa Creación de Libros para Colorear Impulsados por IA: Una Guía Completa Diseñar libros para colorear es una actividad gratificante que combina la expresión artística con experiencias relajantes para los usuarios. Sin embargo, el proceso puede ser intensivo en trabajo. Afo
Qodo se asocia con Google Cloud para ofrecer herramientas gratuitas de revisión de código de IA para desarrolladores Qodo se asocia con Google Cloud para ofrecer herramientas gratuitas de revisión de código de IA para desarrolladores Qodo, una startup de codificación de IA con sede en Israel enfocada en la calidad del código, ha iniciado una asociación con Google Cloud para mejorar la integridad del software generado por IA.A medi
El AI de DeepMind Gana Oro en la Olimpiada de Matemáticas 2025 El AI de DeepMind Gana Oro en la Olimpiada de Matemáticas 2025 El AI de DeepMind ha logrado un avance impresionante en razonamiento matemático, obteniendo una medalla de oro en la Olimpiada Internacional de Matemáticas (IMO) 2025, solo un año después de ganar pla
comentario (35)
0/200
MichaelDavis
MichaelDavis 17 de abril de 2025 14:14:46 GMT+02:00

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 16 de abril de 2025 18:17:56 GMT+02:00

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 16 de abril de 2025 06:13:53 GMT+02:00

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 16 de abril de 2025 01:01:01 GMT+02:00

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 15 de abril de 2025 19:16:25 GMT+02:00

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 15 de abril de 2025 07:46:36 GMT+02:00

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

Volver arriba
OR