option
Maison
Nouvelles
Le groupe de Fei-Fei Li exhorte une législation sur la sécurité préemptive de l'IA

Le groupe de Fei-Fei Li exhorte une législation sur la sécurité préemptive de l'IA

10 avril 2025
124

Le groupe de Fei-Fei Li exhorte une législation sur la sécurité préemptive de l'IA

Un nouveau rapport d'un groupe de politique californien, co-dirigé par la pionnière de l'IA Fei-Fei Li, suggère que les législateurs devraient prendre en compte les risques de l'IA qui n'ont pas encore été observés dans le monde réel lors de la création de politiques réglementaires sur l'IA. Ce rapport intérimaire de 41 pages, publié mardi, provient du Joint California Policy Working Group on AI Frontier Models, créé par le gouverneur Gavin Newsom après qu'il a opposé son veto au projet de loi controversé sur la sécurité de l'IA en Californie, SB 1047. Newsom estimait que SB 1047 n'était pas tout à fait à la hauteur, mais il a reconnu la nécessité d'examiner plus en profondeur les risques de l'IA pour guider les législateurs.

Dans le rapport, Li, avec les co-auteurs Jennifer Chayes, doyenne du Collège de l'informatique de l'UC Berkeley, et Mariano-Florentino Cuéllar, président de la Carnegie Endowment for International Peace, plaident pour des lois qui rendraient plus claires les activités des laboratoires d'IA de pointe comme OpenAI. Avant sa publication, le rapport a été examiné par des acteurs de l'industrie de divers horizons, y compris des partisans fervents de la sécurité de l'IA comme le lauréat du prix Turing Yoshua Bengio et ceux qui s'opposaient à SB 1047, comme le co-fondateur de Databricks, Ion Stoica.

Le rapport souligne que les nouveaux risques des systèmes d'IA pourraient nécessiter des lois obligeant les développeurs de modèles d'IA à partager leurs tests de sécurité, leurs méthodes d'acquisition de données et leurs mesures de sécurité avec le public. Il appelle également à de meilleures normes pour les vérifications par des tiers de ces éléments et des politiques des entreprises, ainsi qu'à davantage de protections pour les employés et contractants des entreprises d'IA qui dénoncent des abus.

Li et ses co-auteurs mentionnent qu'il n'y a pas encore suffisamment de preuves sur le potentiel de l'IA à faciliter les cyberattaques, à fabriquer des armes biologiques ou à causer d'autres dangers « extrêmes ». Mais ils affirment également que la politique de l'IA ne devrait pas seulement s'occuper de ce qui se passe maintenant ; elle devrait aussi envisager ce qui pourrait arriver à l'avenir si des mesures de sécurité suffisantes ne sont pas en place.

Le rapport utilise l'exemple d'une arme nucléaire, en disant : « Nous n'avons pas besoin de voir une arme nucléaire exploser pour savoir qu'elle pourrait causer beaucoup de dégâts. » Il ajoute : « Si ceux qui parlent des pires risques ont raison — et nous ne sommes pas sûrs qu'ils le seront — alors ne rien faire concernant l'IA de pointe maintenant pourrait être très coûteux. »

Pour rendre le développement des modèles d'IA plus transparent, le rapport propose une approche de « confiance mais vérification ». Il indique que les développeurs de modèles d'IA et leurs employés devraient avoir des moyens de rendre compte des éléments importants pour le public, comme les tests de sécurité internes, et devraient également faire vérifier leurs affirmations de tests par des tiers.

Bien que le rapport, qui sera finalisé en juin 2025, ne soutienne aucune loi spécifique, il a été bien accueilli par les experts des deux côtés du débat sur la politique de l'IA.

Dean Ball, chercheur spécialisé en IA à l'Université George Mason et opposant à SB 1047, a déclaré sur X que le rapport est une avancée positive pour les règles de sécurité de l'IA en Californie. C'est également une victoire pour les défenseurs de la sécurité de l'IA, selon le sénateur de l'État de Californie Scott Wiener, qui a présenté SB 1047 l'année dernière. Wiener a déclaré dans un communiqué de presse que le rapport contribue aux « discussions urgentes sur la gouvernance de l'IA que nous avons entamées au sein de la législature en 2024. »

Le rapport semble en accord avec certaines parties de SB 1047 et du prochain projet de loi de Wiener, SB 53, comme l'obligation pour les développeurs de modèles d'IA de rendre compte des résultats de leurs tests de sécurité. Dans une perspective plus large, il apparaît comme une victoire très nécessaire pour les défenseurs de la sécurité de l'IA, dont les idées ont perdu du terrain au cours de l'année passée.

Article connexe
Création de livres de coloriage alimentés par l'IA : Un guide complet Création de livres de coloriage alimentés par l'IA : Un guide complet Concevoir des livres de coloriage est une entreprise gratifiante, combinant expression artistique et expériences apaisantes pour les utilisateurs. Cependant, le processus peut être laborieux. Heureuse
Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs Qodo, une startup israélienne spécialisée dans le codage par IA et axée sur la qualité du code, a lancé un partenariat avec Google Cloud pour améliorer l'intégrité des logiciels générés par IA.À mesur
L'IA de DeepMind remporte l'or à l'Olympiade de Mathématiques 2025 L'IA de DeepMind remporte l'or à l'Olympiade de Mathématiques 2025 L'IA de DeepMind a réalisé un bond spectaculaire en raisonnement mathématique, décrochant une médaille d'or à l'Olympiade Internationale de Mathématiques (IMO) 2025, un an après l'argent en 2024. Cett
commentaires (35)
0/200
MichaelDavis
MichaelDavis 17 avril 2025 14:14:46 UTC+02:00

O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅

JasonRoberts
JasonRoberts 16 avril 2025 18:17:56 UTC+02:00

¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅

AnthonyJohnson
AnthonyJohnson 16 avril 2025 06:13:53 UTC+02:00

El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚

WillieRodriguez
WillieRodriguez 16 avril 2025 01:01:01 UTC+02:00

Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚

RalphWalker
RalphWalker 15 avril 2025 19:16:25 UTC+02:00

Fei-Fei Li's group is really pushing for proactive AI safety laws, which is great. But man, that 41-page report? A bit much to digest, don't you think? Still, it's important to consider unseen AI risks. Maybe they could've made it a bit more concise? 🤓📚

EricRoberts
EricRoberts 15 avril 2025 07:46:36 UTC+02:00

Fei-Fei Li 그룹의 AI 안전 보고서는 눈을 뜨게 하지만, 읽기에는 조금 어려워요. 미래의 위험을 생각하는 것은 중요하지만, 더 읽기 쉽게 만들어졌으면 좋겠어요. 그래도 생각할 거리를 주네요! 🤔

Retour en haut
OR