Anthropic supprime silencieusement l'Enjeu de l'IA responsable de l'ère Biden du site Web

Anthropic supprime les engagements de sécurité de l'IA de l'ère Biden de son site web
Dans une démarche qui a suscité des interrogations, Anthropic, un acteur majeur de l'industrie de l'IA, a discrètement supprimé la semaine dernière ses engagements de l'ère Biden en faveur d'un développement sûr de l'IA de son centre de transparence. Ce changement a été repéré pour la première fois par The Midas Project, un groupe de surveillance de l'IA, qui a noté l'absence de formulations promettant de partager des informations et des recherches sur les risques de l'IA, y compris les biais, avec le gouvernement.
Ces engagements faisaient partie d'un accord volontaire conclu par Anthropic aux côtés d'autres géants technologiques comme OpenAI, Google et Meta en juillet 2023. Cet accord était une pierre angulaire des efforts de l'administration Biden pour promouvoir un développement responsable de l'IA, dont de nombreux aspects ont ensuite été inscrits dans l'ordre exécutif de Biden sur l'IA. Les entreprises participantes s'étaient engagées à respecter certaines normes, telles que la réalisation de tests de sécurité sur leurs modèles avant leur sortie, le marquage des contenus générés par l'IA et le développement d'une infrastructure robuste de protection des données.
De plus, Anthropic avait accepté de collaborer avec l'AI Safety Institute, établi sous l'ordre exécutif de Biden, pour faire avancer ces priorités. Cependant, avec l'administration Trump susceptible de dissoudre l'Institut, l'avenir de ces initiatives reste incertain.
Fait intéressant, Anthropic n'a pas fait d'annonce publique concernant la suppression de ces engagements de son site web. L'entreprise insiste sur le fait que ses positions actuelles sur l'IA responsable sont soit indépendantes, soit antérieures aux accords de l'ère Biden.
Implications plus larges sous l'administration Trump
Cette évolution s'inscrit dans un changement plus large de la politique et de la réglementation de l'IA sous l'administration Trump. Dès son premier jour au pouvoir, Trump a annulé l'ordre exécutif de Biden sur l'IA, et il a déjà écarté plusieurs experts en IA des postes gouvernementaux et réduit le financement de la recherche. Ces actions ont créé un changement notable dans le ton des grandes entreprises d'IA, certaines cherchant désormais à élargir leurs contrats gouvernementaux et à influencer le paysage encore en évolution de la politique de l'IA sous Trump.
Par exemple, des entreprises comme Google redéfinissent ce qui constitue une IA responsable, potentiellement en assouplissant des normes déjà peu strictes. Avec une grande partie de la réglementation limitée de l'IA établie sous l'administration Biden menacée de démantèlement, les entreprises pourraient se retrouver avec encore moins d'incitations externes à s'autoréguler ou à se soumettre à une supervision tierce.
Notamment, les discussions sur les contrôles de sécurité concernant les biais et la discrimination dans les systèmes d'IA ont été remarquablement absentes des déclarations publiques de Trump sur l'IA, suggérant un possible abandon de ces priorités.
Article connexe
Usine de BD IA : Révolutionner l'éducation avec des outils IA créatifs
Dans le paysage éducatif dynamique d'aujourd'hui, les éducateurs explorent constamment des moyens innovants pour captiver les élèves et stimuler leur créativité. L'intégration de l'Intelligence Artifi
Efficacité des salons de manucure alimentés par l'IA : Booster les opérations et la croissance
Dans le monde dynamique des affaires, optimiser les opérations et améliorer la satisfaction des clients sont essentiels au succès. Les salons de manucure, comme le Tamashi Nail Salon, se tournent vers
Création de chansons pour enfants alimentées par l'IA pour le profit en 2025
En 2025, l'intelligence artificielle transforme le divertissement pour enfants. Produire des chansons pour enfants créées par l'IA n'est pas seulement un concept visionnaire ; c'est une opportunité pr
commentaires (2)
0/200
JuanLewis
4 août 2025 08:01:00 UTC+02:00
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
28 juillet 2025 03:20:54 UTC+02:00
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
Anthropic supprime les engagements de sécurité de l'IA de l'ère Biden de son site web
Dans une démarche qui a suscité des interrogations, Anthropic, un acteur majeur de l'industrie de l'IA, a discrètement supprimé la semaine dernière ses engagements de l'ère Biden en faveur d'un développement sûr de l'IA de son centre de transparence. Ce changement a été repéré pour la première fois par The Midas Project, un groupe de surveillance de l'IA, qui a noté l'absence de formulations promettant de partager des informations et des recherches sur les risques de l'IA, y compris les biais, avec le gouvernement.
Ces engagements faisaient partie d'un accord volontaire conclu par Anthropic aux côtés d'autres géants technologiques comme OpenAI, Google et Meta en juillet 2023. Cet accord était une pierre angulaire des efforts de l'administration Biden pour promouvoir un développement responsable de l'IA, dont de nombreux aspects ont ensuite été inscrits dans l'ordre exécutif de Biden sur l'IA. Les entreprises participantes s'étaient engagées à respecter certaines normes, telles que la réalisation de tests de sécurité sur leurs modèles avant leur sortie, le marquage des contenus générés par l'IA et le développement d'une infrastructure robuste de protection des données.
De plus, Anthropic avait accepté de collaborer avec l'AI Safety Institute, établi sous l'ordre exécutif de Biden, pour faire avancer ces priorités. Cependant, avec l'administration Trump susceptible de dissoudre l'Institut, l'avenir de ces initiatives reste incertain.
Fait intéressant, Anthropic n'a pas fait d'annonce publique concernant la suppression de ces engagements de son site web. L'entreprise insiste sur le fait que ses positions actuelles sur l'IA responsable sont soit indépendantes, soit antérieures aux accords de l'ère Biden.
Implications plus larges sous l'administration Trump
Cette évolution s'inscrit dans un changement plus large de la politique et de la réglementation de l'IA sous l'administration Trump. Dès son premier jour au pouvoir, Trump a annulé l'ordre exécutif de Biden sur l'IA, et il a déjà écarté plusieurs experts en IA des postes gouvernementaux et réduit le financement de la recherche. Ces actions ont créé un changement notable dans le ton des grandes entreprises d'IA, certaines cherchant désormais à élargir leurs contrats gouvernementaux et à influencer le paysage encore en évolution de la politique de l'IA sous Trump.
Par exemple, des entreprises comme Google redéfinissent ce qui constitue une IA responsable, potentiellement en assouplissant des normes déjà peu strictes. Avec une grande partie de la réglementation limitée de l'IA établie sous l'administration Biden menacée de démantèlement, les entreprises pourraient se retrouver avec encore moins d'incitations externes à s'autoréguler ou à se soumettre à une supervision tierce.
Notamment, les discussions sur les contrôles de sécurité concernant les biais et la discrimination dans les systèmes d'IA ont été remarquablement absentes des déclarations publiques de Trump sur l'IA, suggérant un possible abandon de ces priorités.




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












