Anthropic supprime silencieusement l'Enjeu de l'IA responsable de l'ère Biden du site Web

Anthropic supprime les engagements de sécurité de l'IA de l'ère Biden de son site web
Dans une démarche qui a suscité des interrogations, Anthropic, un acteur majeur de l'industrie de l'IA, a discrètement supprimé la semaine dernière ses engagements de l'ère Biden en faveur d'un développement sûr de l'IA de son centre de transparence. Ce changement a été repéré pour la première fois par The Midas Project, un groupe de surveillance de l'IA, qui a noté l'absence de formulations promettant de partager des informations et des recherches sur les risques de l'IA, y compris les biais, avec le gouvernement.
Ces engagements faisaient partie d'un accord volontaire conclu par Anthropic aux côtés d'autres géants technologiques comme OpenAI, Google et Meta en juillet 2023. Cet accord était une pierre angulaire des efforts de l'administration Biden pour promouvoir un développement responsable de l'IA, dont de nombreux aspects ont ensuite été inscrits dans l'ordre exécutif de Biden sur l'IA. Les entreprises participantes s'étaient engagées à respecter certaines normes, telles que la réalisation de tests de sécurité sur leurs modèles avant leur sortie, le marquage des contenus générés par l'IA et le développement d'une infrastructure robuste de protection des données.
De plus, Anthropic avait accepté de collaborer avec l'AI Safety Institute, établi sous l'ordre exécutif de Biden, pour faire avancer ces priorités. Cependant, avec l'administration Trump susceptible de dissoudre l'Institut, l'avenir de ces initiatives reste incertain.
Fait intéressant, Anthropic n'a pas fait d'annonce publique concernant la suppression de ces engagements de son site web. L'entreprise insiste sur le fait que ses positions actuelles sur l'IA responsable sont soit indépendantes, soit antérieures aux accords de l'ère Biden.
Implications plus larges sous l'administration Trump
Cette évolution s'inscrit dans un changement plus large de la politique et de la réglementation de l'IA sous l'administration Trump. Dès son premier jour au pouvoir, Trump a annulé l'ordre exécutif de Biden sur l'IA, et il a déjà écarté plusieurs experts en IA des postes gouvernementaux et réduit le financement de la recherche. Ces actions ont créé un changement notable dans le ton des grandes entreprises d'IA, certaines cherchant désormais à élargir leurs contrats gouvernementaux et à influencer le paysage encore en évolution de la politique de l'IA sous Trump.
Par exemple, des entreprises comme Google redéfinissent ce qui constitue une IA responsable, potentiellement en assouplissant des normes déjà peu strictes. Avec une grande partie de la réglementation limitée de l'IA établie sous l'administration Biden menacée de démantèlement, les entreprises pourraient se retrouver avec encore moins d'incitations externes à s'autoréguler ou à se soumettre à une supervision tierce.
Notamment, les discussions sur les contrôles de sécurité concernant les biais et la discrimination dans les systèmes d'IA ont été remarquablement absentes des déclarations publiques de Trump sur l'IA, suggérant un possible abandon de ces priorités.
Article connexe
Une étude de Microsoft révèle qu'un plus grand nombre de jetons d'IA augmente les erreurs de raisonnement
Nouvelles perspectives sur l'efficacité du raisonnement dans les LLMDe nouvelles recherches menées par Microsoft démontrent que les techniques de raisonnement avancées dans les grands modèles de langa
"AI K-Pop Idol Fashion Trends : Se transformer en icône du style"
La révolution de la mode K-Pop : L'IA rencontre le style des idolesLes idoles de la K-Pop ne sont pas seulement des artistes musicaux : ce sont aussi des créateurs de mode dont l'influence sur le styl
Guide complet pour maîtriser la peinture à l'encre à l'aide de la diffusion stable
Stable Diffusion a transformé la génération d'images par IA en offrant un contrôle créatif sans précédent, en particulier grâce à sa puissante fonctionnalité d'inpainting. Ce didacticiel complet vous
commentaires (4)
0/200
AlbertMiller
25 août 2025 07:33:49 UTC+02:00
Wow, Anthropic pulling that AI safety pledge is wild! 🤯 Makes you wonder if they're dodging accountability or just streamlining their site. Either way, it’s a bold move in today’s AI race!
0
PaulTaylor
16 août 2025 23:00:59 UTC+02:00
Wow, Anthropic pulling those AI safety pledges is shady! 🤔 Makes you wonder what’s cooking behind closed doors—less transparency in AI dev is a bold move, and not the good kind.
0
JuanLewis
4 août 2025 08:01:00 UTC+02:00
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
28 juillet 2025 03:20:54 UTC+02:00
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
Anthropic supprime les engagements de sécurité de l'IA de l'ère Biden de son site web
Dans une démarche qui a suscité des interrogations, Anthropic, un acteur majeur de l'industrie de l'IA, a discrètement supprimé la semaine dernière ses engagements de l'ère Biden en faveur d'un développement sûr de l'IA de son centre de transparence. Ce changement a été repéré pour la première fois par The Midas Project, un groupe de surveillance de l'IA, qui a noté l'absence de formulations promettant de partager des informations et des recherches sur les risques de l'IA, y compris les biais, avec le gouvernement.
Ces engagements faisaient partie d'un accord volontaire conclu par Anthropic aux côtés d'autres géants technologiques comme OpenAI, Google et Meta en juillet 2023. Cet accord était une pierre angulaire des efforts de l'administration Biden pour promouvoir un développement responsable de l'IA, dont de nombreux aspects ont ensuite été inscrits dans l'ordre exécutif de Biden sur l'IA. Les entreprises participantes s'étaient engagées à respecter certaines normes, telles que la réalisation de tests de sécurité sur leurs modèles avant leur sortie, le marquage des contenus générés par l'IA et le développement d'une infrastructure robuste de protection des données.
De plus, Anthropic avait accepté de collaborer avec l'AI Safety Institute, établi sous l'ordre exécutif de Biden, pour faire avancer ces priorités. Cependant, avec l'administration Trump susceptible de dissoudre l'Institut, l'avenir de ces initiatives reste incertain.
Fait intéressant, Anthropic n'a pas fait d'annonce publique concernant la suppression de ces engagements de son site web. L'entreprise insiste sur le fait que ses positions actuelles sur l'IA responsable sont soit indépendantes, soit antérieures aux accords de l'ère Biden.
Implications plus larges sous l'administration Trump
Cette évolution s'inscrit dans un changement plus large de la politique et de la réglementation de l'IA sous l'administration Trump. Dès son premier jour au pouvoir, Trump a annulé l'ordre exécutif de Biden sur l'IA, et il a déjà écarté plusieurs experts en IA des postes gouvernementaux et réduit le financement de la recherche. Ces actions ont créé un changement notable dans le ton des grandes entreprises d'IA, certaines cherchant désormais à élargir leurs contrats gouvernementaux et à influencer le paysage encore en évolution de la politique de l'IA sous Trump.
Par exemple, des entreprises comme Google redéfinissent ce qui constitue une IA responsable, potentiellement en assouplissant des normes déjà peu strictes. Avec une grande partie de la réglementation limitée de l'IA établie sous l'administration Biden menacée de démantèlement, les entreprises pourraient se retrouver avec encore moins d'incitations externes à s'autoréguler ou à se soumettre à une supervision tierce.
Notamment, les discussions sur les contrôles de sécurité concernant les biais et la discrimination dans les systèmes d'IA ont été remarquablement absentes des déclarations publiques de Trump sur l'IA, suggérant un possible abandon de ces priorités.




Wow, Anthropic pulling that AI safety pledge is wild! 🤯 Makes you wonder if they're dodging accountability or just streamlining their site. Either way, it’s a bold move in today’s AI race!




Wow, Anthropic pulling those AI safety pledges is shady! 🤔 Makes you wonder what’s cooking behind closed doors—less transparency in AI dev is a bold move, and not the good kind.




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












