Anthropic supprime la politique Biden AI du site Web tranquillement
Anthropic, une entreprise axée sur le développement de l'IA, a récemment supprimé de son site web plusieurs engagements volontaires en matière de sécurité de l'IA, pris en collaboration avec l'administration Biden en 2023. Ces engagements, visant à promouvoir une IA sûre et fiable, incluaient le partage d'informations sur la gestion des risques liés à l'IA et la réalisation de recherches sur les biais et la discrimination dans l'IA. Le groupe de surveillance de l'IA, The Midas Project, a souligné que ces engagements ont été retirés du centre de transparence d'Anthropic la semaine dernière. Cependant, les engagements liés à la réduction des abus sexuels basés sur des images générées par l'IA sont toujours en place.
Anthropic n'a fait aucune annonce concernant ce changement et n'a pas répondu immédiatement aux demandes de commentaires. L'entreprise, ainsi que d'autres comme OpenAI, Google, Microsoft, Meta et Inflection, avait accepté de suivre certaines mesures volontaires de sécurité de l'IA proposées par l'administration Biden en juillet 2023. Ces mesures incluaient des tests de sécurité internes et externes des systèmes d'IA avant leur sortie, des investissements dans la cybersécurité pour protéger les données sensibles de l'IA, et le développement de moyens pour marquer le contenu généré par l'IA.
Il est à noter qu'Anthropic mettait déjà en œuvre bon nombre de ces pratiques, et l'accord n'était pas juridiquement contraignant. L'objectif de l'administration Biden était de mettre en avant ses priorités en matière de politique d'IA avant la mise en œuvre d'un décret exécutif sur l'IA plus complet quelques mois plus tard.
L'administration Trump, en revanche, a signalé une approche différente de la gouvernance de l'IA. En janvier, le président Trump a révoqué le décret exécutif sur l'IA, qui avait ordonné à l'Institut national des normes et de la technologie de créer des lignes directrices pour les entreprises afin d'identifier et de corriger les défauts des modèles d'IA, y compris les biais. Les alliés de Trump ont critiqué ce décret pour ses exigences de rapport lourdes, qui, selon eux, obligeaient les entreprises à révéler leurs secrets commerciaux.
Peu après la révocation du décret exécutif sur l'IA, Trump a publié une nouvelle directive pour les agences fédérales afin de soutenir le développement de l'IA "exempte de biais idéologiques" qui favoriserait "l'épanouissement humain, la compétitivité économique et la sécurité nationale". Contrairement à l'initiative de Biden, l'ordre de Trump n'abordait pas la lutte contre la discrimination dans l'IA.
The Midas Project a souligné sur X que les engagements de l'ère Biden n'indiquaient pas qu'ils étaient temporaires ou dépendants du parti politique au pouvoir. Après l'élection de novembre, plusieurs entreprises d'IA ont réaffirmé leurs engagements.
Anthropic n'est pas la seule entreprise à ajuster ses politiques publiques depuis l'arrivée de Trump au pouvoir. OpenAI a récemment déclaré qu'elle défendrait "la liberté intellectuelle ... quel que soit le sujet, aussi difficile ou controversé soit-il", et s'assurerait que son IA ne censure pas certains points de vue. OpenAI a également supprimé une page de son site web qui mettait auparavant en avant son engagement envers la diversité, l'équité et l'inclusion (DEI). Ces programmes ont été critiqués par l'administration Trump, incitant de nombreuses entreprises à abandonner ou à modifier significativement leurs initiatives DEI.
Certains conseillers en IA de Trump dans la Silicon Valley, dont Marc Andreessen, David Sacks et Elon Musk, ont accusé des entreprises comme Google et OpenAI de censurer l'IA en restreignant les réponses de leurs chatbots. Cependant, des laboratoires comme OpenAI ont nié que leurs ajustements de politique soient dus à des pressions politiques.
OpenAI et Anthropic détiennent actuellement ou recherchent activement des contrats gouvernementaux.
Quelques heures après la publication de cet article, Anthropic a fourni à TechCrunch la déclaration suivante :
"Nous restons engagés envers les engagements volontaires en matière d'IA établis sous l'administration Biden. Ces progrès et actions spécifiques continuent d'être reflétés dans [notre] centre de transparence au sein du contenu. Pour éviter toute confusion supplémentaire, nous ajouterons une section citant directement où nos progrès s'alignent."
Mis à jour à 11h25, heure du Pacifique : Ajout d'une déclaration d'Anthropic.
Article connexe
Création de livres de coloriage alimentés par l'IA : Un guide complet
Concevoir des livres de coloriage est une entreprise gratifiante, combinant expression artistique et expériences apaisantes pour les utilisateurs. Cependant, le processus peut être laborieux. Heureuse
Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs
Qodo, une startup israélienne spécialisée dans le codage par IA et axée sur la qualité du code, a lancé un partenariat avec Google Cloud pour améliorer l'intégrité des logiciels générés par IA.À mesur
L'IA de DeepMind remporte l'or à l'Olympiade de Mathématiques 2025
L'IA de DeepMind a réalisé un bond spectaculaire en raisonnement mathématique, décrochant une médaille d'or à l'Olympiade Internationale de Mathématiques (IMO) 2025, un an après l'argent en 2024. Cett
commentaires (84)
0/200
GeorgeScott
20 août 2025 13:01:15 UTC+02:00
Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?
0
GaryHill
18 août 2025 22:01:31 UTC+02:00
It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?
0
GaryJones
13 août 2025 03:00:59 UTC+02:00
It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?
0
JimmyWhite
1 août 2025 15:47:34 UTC+02:00
Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?
0
WillieHernández
19 avril 2025 08:53:51 UTC+02:00
アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒
0
EricRoberts
18 avril 2025 03:47:11 UTC+02:00
앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔
0
Anthropic, une entreprise axée sur le développement de l'IA, a récemment supprimé de son site web plusieurs engagements volontaires en matière de sécurité de l'IA, pris en collaboration avec l'administration Biden en 2023. Ces engagements, visant à promouvoir une IA sûre et fiable, incluaient le partage d'informations sur la gestion des risques liés à l'IA et la réalisation de recherches sur les biais et la discrimination dans l'IA. Le groupe de surveillance de l'IA, The Midas Project, a souligné que ces engagements ont été retirés du centre de transparence d'Anthropic la semaine dernière. Cependant, les engagements liés à la réduction des abus sexuels basés sur des images générées par l'IA sont toujours en place.
Anthropic n'a fait aucune annonce concernant ce changement et n'a pas répondu immédiatement aux demandes de commentaires. L'entreprise, ainsi que d'autres comme OpenAI, Google, Microsoft, Meta et Inflection, avait accepté de suivre certaines mesures volontaires de sécurité de l'IA proposées par l'administration Biden en juillet 2023. Ces mesures incluaient des tests de sécurité internes et externes des systèmes d'IA avant leur sortie, des investissements dans la cybersécurité pour protéger les données sensibles de l'IA, et le développement de moyens pour marquer le contenu généré par l'IA.
Il est à noter qu'Anthropic mettait déjà en œuvre bon nombre de ces pratiques, et l'accord n'était pas juridiquement contraignant. L'objectif de l'administration Biden était de mettre en avant ses priorités en matière de politique d'IA avant la mise en œuvre d'un décret exécutif sur l'IA plus complet quelques mois plus tard.
L'administration Trump, en revanche, a signalé une approche différente de la gouvernance de l'IA. En janvier, le président Trump a révoqué le décret exécutif sur l'IA, qui avait ordonné à l'Institut national des normes et de la technologie de créer des lignes directrices pour les entreprises afin d'identifier et de corriger les défauts des modèles d'IA, y compris les biais. Les alliés de Trump ont critiqué ce décret pour ses exigences de rapport lourdes, qui, selon eux, obligeaient les entreprises à révéler leurs secrets commerciaux.
Peu après la révocation du décret exécutif sur l'IA, Trump a publié une nouvelle directive pour les agences fédérales afin de soutenir le développement de l'IA "exempte de biais idéologiques" qui favoriserait "l'épanouissement humain, la compétitivité économique et la sécurité nationale". Contrairement à l'initiative de Biden, l'ordre de Trump n'abordait pas la lutte contre la discrimination dans l'IA.
The Midas Project a souligné sur X que les engagements de l'ère Biden n'indiquaient pas qu'ils étaient temporaires ou dépendants du parti politique au pouvoir. Après l'élection de novembre, plusieurs entreprises d'IA ont réaffirmé leurs engagements.
Anthropic n'est pas la seule entreprise à ajuster ses politiques publiques depuis l'arrivée de Trump au pouvoir. OpenAI a récemment déclaré qu'elle défendrait "la liberté intellectuelle ... quel que soit le sujet, aussi difficile ou controversé soit-il", et s'assurerait que son IA ne censure pas certains points de vue. OpenAI a également supprimé une page de son site web qui mettait auparavant en avant son engagement envers la diversité, l'équité et l'inclusion (DEI). Ces programmes ont été critiqués par l'administration Trump, incitant de nombreuses entreprises à abandonner ou à modifier significativement leurs initiatives DEI.
Certains conseillers en IA de Trump dans la Silicon Valley, dont Marc Andreessen, David Sacks et Elon Musk, ont accusé des entreprises comme Google et OpenAI de censurer l'IA en restreignant les réponses de leurs chatbots. Cependant, des laboratoires comme OpenAI ont nié que leurs ajustements de politique soient dus à des pressions politiques.
OpenAI et Anthropic détiennent actuellement ou recherchent activement des contrats gouvernementaux.
Quelques heures après la publication de cet article, Anthropic a fourni à TechCrunch la déclaration suivante :
"Nous restons engagés envers les engagements volontaires en matière d'IA établis sous l'administration Biden. Ces progrès et actions spécifiques continuent d'être reflétés dans [notre] centre de transparence au sein du contenu. Pour éviter toute confusion supplémentaire, nous ajouterons une section citant directement où nos progrès s'alignent."
Mis à jour à 11h25, heure du Pacifique : Ajout d'une déclaration d'Anthropic.



Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?




It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?




It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?




Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?




アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒




앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔












