Le groupe de Fei-Fei Li exhorte une législation sur la sécurité préemptive de l'IA

Un nouveau rapport d'un groupe de politique californien, co-dirigé par la pionnière de l'IA Fei-Fei Li, suggère que les législateurs devraient prendre en compte les risques de l'IA qui n'ont pas encore été observés dans le monde réel lors de la création de politiques réglementaires sur l'IA. Ce rapport intérimaire de 41 pages, publié mardi, provient du Joint California Policy Working Group on AI Frontier Models, créé par le gouverneur Gavin Newsom après qu'il a opposé son veto au projet de loi controversé sur la sécurité de l'IA en Californie, SB 1047. Newsom estimait que SB 1047 n'était pas tout à fait à la hauteur, mais il a reconnu la nécessité d'examiner plus en profondeur les risques de l'IA pour guider les législateurs.
Dans le rapport, Li, avec les co-auteurs Jennifer Chayes, doyenne du Collège de l'informatique de l'UC Berkeley, et Mariano-Florentino Cuéllar, président de la Carnegie Endowment for International Peace, plaident pour des lois qui rendraient plus claires les activités des laboratoires d'IA de pointe comme OpenAI. Avant sa publication, le rapport a été examiné par des acteurs de l'industrie de divers horizons, y compris des partisans fervents de la sécurité de l'IA comme le lauréat du prix Turing Yoshua Bengio et ceux qui s'opposaient à SB 1047, comme le co-fondateur de Databricks, Ion Stoica.
Le rapport souligne que les nouveaux risques des systèmes d'IA pourraient nécessiter des lois obligeant les développeurs de modèles d'IA à partager leurs tests de sécurité, leurs méthodes d'acquisition de données et leurs mesures de sécurité avec le public. Il appelle également à de meilleures normes pour les vérifications par des tiers de ces éléments et des politiques des entreprises, ainsi qu'à davantage de protections pour les employés et contractants des entreprises d'IA qui dénoncent des abus.
Li et ses co-auteurs mentionnent qu'il n'y a pas encore suffisamment de preuves sur le potentiel de l'IA à faciliter les cyberattaques, à fabriquer des armes biologiques ou à causer d'autres dangers « extrêmes ». Mais ils affirment également que la politique de l'IA ne devrait pas seulement s'occuper de ce qui se passe maintenant ; elle devrait aussi envisager ce qui pourrait arriver à l'avenir si des mesures de sécurité suffisantes ne sont pas en place.
Le rapport utilise l'exemple d'une arme nucléaire, en disant : « Nous n'avons pas besoin de voir une arme nucléaire exploser pour savoir qu'elle pourrait causer beaucoup de dégâts. » Il ajoute : « Si ceux qui parlent des pires risques ont raison — et nous ne sommes pas sûrs qu'ils le seront — alors ne rien faire concernant l'IA de pointe maintenant pourrait être très coûteux. »
Pour rendre le développement des modèles d'IA plus transparent, le rapport propose une approche de « confiance mais vérification ». Il indique que les développeurs de modèles d'IA et leurs employés devraient avoir des moyens de rendre compte des éléments importants pour le public, comme les tests de sécurité internes, et devraient également faire vérifier leurs affirmations de tests par des tiers.
Bien que le rapport, qui sera finalisé en juin 2025, ne soutienne aucune loi spécifique, il a été bien accueilli par les experts des deux côtés du débat sur la politique de l'IA.
Dean Ball, chercheur spécialisé en IA à l'Université George Mason et opposant à SB 1047, a déclaré sur X que le rapport est une avancée positive pour les règles de sécurité de l'IA en Californie. C'est également une victoire pour les défenseurs de la sécurité de l'IA, selon le sénateur de l'État de Californie Scott Wiener, qui a présenté SB 1047 l'année dernière. Wiener a déclaré dans un communiqué de presse que le rapport contribue aux « discussions urgentes sur la gouvernance de l'IA que nous avons entamées au sein de la législature en 2024. »
Le rapport semble en accord avec certaines parties de SB 1047 et du prochain projet de loi de Wiener, SB 53, comme l'obligation pour les développeurs de modèles d'IA de rendre compte des résultats de leurs tests de sécurité. Dans une perspective plus large, il apparaît comme une victoire très nécessaire pour les défenseurs de la sécurité de l'IA, dont les idées ont perdu du terrain au cours de l'année passée.
Article connexe
Les États-Unis vont sanctionner des fonctionnaires étrangers en raison de la réglementation sur les médias sociaux
Les États-Unis prennent position contre les réglementations mondiales en matière de contenu numériqueCette semaine, le département d'État américain a émis un blâme diplomatique sévère à l'encontre d
Guide ultime des résumeurs de vidéos YouTube alimentés par l'IA
Dans notre paysage numérique riche en informations, les résumeurs de vidéos YouTube alimentés par l'IA sont devenus indispensables pour une consommation efficace du contenu. Ce guide approfondi explor
Atlassian acquiert The Browser Company pour 610 millions de dollars afin de renforcer ses outils de développement
Atlassian, le leader des logiciels de productivité d'entreprise, a annoncé son intention d'acquérir le développeur de navigateurs innovants The Browser Company dans le cadre d'une transaction en numér
commentaires (37)
0/200
HarrySmith
27 août 2025 23:01:36 UTC+02:00
This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?
0
PaulHill
25 août 2025 17:01:14 UTC+02:00
Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!
0
MichaelDavis
17 avril 2025 14:14:46 UTC+02:00
O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅
0
JasonRoberts
16 avril 2025 18:17:56 UTC+02:00
¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅
0
AnthonyJohnson
16 avril 2025 06:13:53 UTC+02:00
El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚
0
WillieRodriguez
16 avril 2025 01:01:01 UTC+02:00
Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚
0
Un nouveau rapport d'un groupe de politique californien, co-dirigé par la pionnière de l'IA Fei-Fei Li, suggère que les législateurs devraient prendre en compte les risques de l'IA qui n'ont pas encore été observés dans le monde réel lors de la création de politiques réglementaires sur l'IA. Ce rapport intérimaire de 41 pages, publié mardi, provient du Joint California Policy Working Group on AI Frontier Models, créé par le gouverneur Gavin Newsom après qu'il a opposé son veto au projet de loi controversé sur la sécurité de l'IA en Californie, SB 1047. Newsom estimait que SB 1047 n'était pas tout à fait à la hauteur, mais il a reconnu la nécessité d'examiner plus en profondeur les risques de l'IA pour guider les législateurs.
Dans le rapport, Li, avec les co-auteurs Jennifer Chayes, doyenne du Collège de l'informatique de l'UC Berkeley, et Mariano-Florentino Cuéllar, président de la Carnegie Endowment for International Peace, plaident pour des lois qui rendraient plus claires les activités des laboratoires d'IA de pointe comme OpenAI. Avant sa publication, le rapport a été examiné par des acteurs de l'industrie de divers horizons, y compris des partisans fervents de la sécurité de l'IA comme le lauréat du prix Turing Yoshua Bengio et ceux qui s'opposaient à SB 1047, comme le co-fondateur de Databricks, Ion Stoica.
Le rapport souligne que les nouveaux risques des systèmes d'IA pourraient nécessiter des lois obligeant les développeurs de modèles d'IA à partager leurs tests de sécurité, leurs méthodes d'acquisition de données et leurs mesures de sécurité avec le public. Il appelle également à de meilleures normes pour les vérifications par des tiers de ces éléments et des politiques des entreprises, ainsi qu'à davantage de protections pour les employés et contractants des entreprises d'IA qui dénoncent des abus.
Li et ses co-auteurs mentionnent qu'il n'y a pas encore suffisamment de preuves sur le potentiel de l'IA à faciliter les cyberattaques, à fabriquer des armes biologiques ou à causer d'autres dangers « extrêmes ». Mais ils affirment également que la politique de l'IA ne devrait pas seulement s'occuper de ce qui se passe maintenant ; elle devrait aussi envisager ce qui pourrait arriver à l'avenir si des mesures de sécurité suffisantes ne sont pas en place.
Le rapport utilise l'exemple d'une arme nucléaire, en disant : « Nous n'avons pas besoin de voir une arme nucléaire exploser pour savoir qu'elle pourrait causer beaucoup de dégâts. » Il ajoute : « Si ceux qui parlent des pires risques ont raison — et nous ne sommes pas sûrs qu'ils le seront — alors ne rien faire concernant l'IA de pointe maintenant pourrait être très coûteux. »
Pour rendre le développement des modèles d'IA plus transparent, le rapport propose une approche de « confiance mais vérification ». Il indique que les développeurs de modèles d'IA et leurs employés devraient avoir des moyens de rendre compte des éléments importants pour le public, comme les tests de sécurité internes, et devraient également faire vérifier leurs affirmations de tests par des tiers.
Bien que le rapport, qui sera finalisé en juin 2025, ne soutienne aucune loi spécifique, il a été bien accueilli par les experts des deux côtés du débat sur la politique de l'IA.
Dean Ball, chercheur spécialisé en IA à l'Université George Mason et opposant à SB 1047, a déclaré sur X que le rapport est une avancée positive pour les règles de sécurité de l'IA en Californie. C'est également une victoire pour les défenseurs de la sécurité de l'IA, selon le sénateur de l'État de Californie Scott Wiener, qui a présenté SB 1047 l'année dernière. Wiener a déclaré dans un communiqué de presse que le rapport contribue aux « discussions urgentes sur la gouvernance de l'IA que nous avons entamées au sein de la législature en 2024. »
Le rapport semble en accord avec certaines parties de SB 1047 et du prochain projet de loi de Wiener, SB 53, comme l'obligation pour les développeurs de modèles d'IA de rendre compte des résultats de leurs tests de sécurité. Dans une perspective plus large, il apparaît comme une victoire très nécessaire pour les défenseurs de la sécurité de l'IA, dont les idées ont perdu du terrain au cours de l'année passée.




This report sounds like a bold move! 😎 Fei-Fei Li’s team pushing for proactive AI laws is smart, but I wonder if lawmakers can keep up with tech’s pace. Preemptive rules could spark innovation or just create red tape. What do you all think?




Fei-Fei Li’s group is onto something big here! Proactive AI safety laws sound smart, but I wonder if lawmakers can keep up with tech’s pace. 🤔 Risky moves need bold rules!




O grupo de Fei-Fei Li sugerindo leis de segurança para IA antes mesmo de vermos os riscos? Parece proativo, mas também meio assustador! 🤔 Como se preparar para uma tempestade que pode nunca chegar. Ainda assim, melhor prevenir do que remediar, certo? Talvez devessem focar nos problemas atuais também? Só um pensamento! 😅




¿El grupo de Fei-Fei Li proponiendo leyes de seguridad para la IA antes de que veamos los riesgos? Suena proactivo pero también un poco aterrador! 🤔 Como prepararse para una tormenta que tal vez nunca llegue. Sin embargo, más vale prevenir que lamentar, ¿verdad? Tal vez deberían enfocarse también en los problemas actuales? Solo es un pensamiento! 😅




El grupo de Fei-Fei Li está realmente empujando por leyes de seguridad de IA proactivas, lo cual es genial. Pero, hombre, ¿ese informe de 41 páginas? Un poco difícil de digerir, ¿no crees? Aún así, es importante considerar los riesgos de IA no vistos. ¿Quizás podrían haberlo hecho un poco más conciso? 🤓📚




Die Gruppe von Fei-Fei Li setzt sich wirklich für proaktive KI-Sicherheitsgesetze ein, das ist toll. Aber Mann, dieser 41-seitige Bericht? Ein bisschen viel zum Verdauen, findest du nicht? Trotzdem ist es wichtig, ungesehene KI-Risiken zu berücksichtigen. Vielleicht hätten sie es etwas kürzer fassen können? 🤓📚












