Anthrope elimina la política de Biden AI del sitio web en silencio
Anthropic, una empresa enfocada en el desarrollo de IA, recientemente eliminó de su sitio web varios compromisos voluntarios de seguridad en IA que se habían establecido en colaboración con la administración de Biden en 2023. Estos compromisos, destinados a promover una IA segura y confiable, incluían compartir información sobre la gestión de riesgos de la IA y realizar investigaciones sobre sesgos y discriminación en la IA. El grupo de vigilancia de IA, The Midas Project, señaló que estos fueron retirados del centro de transparencia de Anthropic la semana pasada. Sin embargo, los compromisos relacionados con la reducción del abuso sexual basado en imágenes generadas por IA aún se mantienen.
Anthropic no hizo ningún anuncio sobre este cambio y no respondió de inmediato a las solicitudes de comentarios. La empresa, junto con otras como OpenAI, Google, Microsoft, Meta e Inflection, había acordado seguir ciertas medidas voluntarias de seguridad en IA propuestas por la administración de Biden en julio de 2023. Estas medidas involucraban pruebas de seguridad internas y externas de los sistemas de IA antes de su lanzamiento, invertir en ciberseguridad para proteger datos sensibles de la IA y desarrollar formas de marcar con marcas de agua el contenido generado por IA.
Es importante destacar que Anthropic ya estaba implementando muchas de estas prácticas, y el acuerdo no era legalmente vinculante. El objetivo de la administración de Biden era resaltar sus prioridades de política de IA antes de que se implementara una Orden Ejecutiva de IA más completa unos meses después.
Por otro lado, la administración de Trump ha señalado un enfoque diferente para la gobernanza de la IA. En enero, el presidente Trump revocó la Orden Ejecutiva de IA, que había ordenado al Instituto Nacional de Estándares y Tecnología crear directrices para que las empresas identifiquen y corrijan defectos en los modelos de IA, incluidos los sesgos. Los aliados de Trump criticaron la orden por sus pesados requisitos de informes, que sentían que obligaban a las empresas a revelar sus secretos comerciales.
Poco después de revocar la Orden Ejecutiva de IA, Trump emitió una nueva directiva para que las agencias federales apoyen el desarrollo de una IA "libre de sesgos ideológicos" que promueva "el florecimiento humano, la competitividad económica y la seguridad nacional". A diferencia de la iniciativa de Biden, la orden de Trump no abordó la lucha contra la discriminación en la IA.
The Midas Project destacó en X que los compromisos de la era de Biden no indicaban que fueran temporales o dependieran del partido político en el poder. Tras las elecciones de noviembre, varias empresas de IA reafirmaron sus compromisos.
Anthropic no es la única empresa que ha ajustado sus políticas públicas desde que Trump asumió el cargo. OpenAI recientemente declaró que defenderá "la libertad intelectual ... sin importar cuán desafiante o controvertido sea un tema" y asegurará que su IA no censure ciertos puntos de vista. OpenAI también eliminó una página de su sitio web que anteriormente destacaba su dedicación a la diversidad, equidad e inclusión (DEI). Estos programas han enfrentado críticas de la administración de Trump, lo que ha llevado a muchas empresas a eliminar o modificar significativamente sus iniciativas de DEI.
Algunos de los asesores de IA de Trump en Silicon Valley, incluidos Marc Andreessen, David Sacks y Elon Musk, han acusado a empresas como Google y OpenAI de censurar la IA al restringir las respuestas de sus chatbots. Sin embargo, laboratorios como OpenAI han negado que los ajustes en sus políticas se deban a presiones políticas.
Tanto OpenAI como Anthropic están actualmente manteniendo o buscando activamente contratos gubernamentales.
Varias horas después de que se publicara este artículo, Anthropic proporcionó a TechCrunch la siguiente declaración:
"Seguimos comprometidos con los compromisos voluntarios de IA establecidos bajo la administración de Biden. Este progreso y las acciones específicas continúan reflejándose en [nuestro] centro de transparencia dentro del contenido. Para evitar más confusiones, agregaremos una sección que cite directamente dónde se alinea nuestro progreso."
Actualizado a las 11:25 a.m. Pacífico: Se agregó una declaración de Anthropic.
Artículo relacionado
Creación de Libros para Colorear Impulsados por IA: Una Guía Completa
Diseñar libros para colorear es una actividad gratificante que combina la expresión artística con experiencias relajantes para los usuarios. Sin embargo, el proceso puede ser intensivo en trabajo. Afo
Qodo se asocia con Google Cloud para ofrecer herramientas gratuitas de revisión de código de IA para desarrolladores
Qodo, una startup de codificación de IA con sede en Israel enfocada en la calidad del código, ha iniciado una asociación con Google Cloud para mejorar la integridad del software generado por IA.A medi
El AI de DeepMind Gana Oro en la Olimpiada de Matemáticas 2025
El AI de DeepMind ha logrado un avance impresionante en razonamiento matemático, obteniendo una medalla de oro en la Olimpiada Internacional de Matemáticas (IMO) 2025, solo un año después de ganar pla
comentario (84)
0/200
GeorgeScott
20 de agosto de 2025 13:01:15 GMT+02:00
Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?
0
GaryHill
18 de agosto de 2025 22:01:31 GMT+02:00
It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?
0
GaryJones
13 de agosto de 2025 03:00:59 GMT+02:00
It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?
0
JimmyWhite
1 de agosto de 2025 15:47:34 GMT+02:00
Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?
0
WillieHernández
19 de abril de 2025 08:53:51 GMT+02:00
アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒
0
EricRoberts
18 de abril de 2025 03:47:11 GMT+02:00
앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔
0
Anthropic, una empresa enfocada en el desarrollo de IA, recientemente eliminó de su sitio web varios compromisos voluntarios de seguridad en IA que se habían establecido en colaboración con la administración de Biden en 2023. Estos compromisos, destinados a promover una IA segura y confiable, incluían compartir información sobre la gestión de riesgos de la IA y realizar investigaciones sobre sesgos y discriminación en la IA. El grupo de vigilancia de IA, The Midas Project, señaló que estos fueron retirados del centro de transparencia de Anthropic la semana pasada. Sin embargo, los compromisos relacionados con la reducción del abuso sexual basado en imágenes generadas por IA aún se mantienen.
Anthropic no hizo ningún anuncio sobre este cambio y no respondió de inmediato a las solicitudes de comentarios. La empresa, junto con otras como OpenAI, Google, Microsoft, Meta e Inflection, había acordado seguir ciertas medidas voluntarias de seguridad en IA propuestas por la administración de Biden en julio de 2023. Estas medidas involucraban pruebas de seguridad internas y externas de los sistemas de IA antes de su lanzamiento, invertir en ciberseguridad para proteger datos sensibles de la IA y desarrollar formas de marcar con marcas de agua el contenido generado por IA.
Es importante destacar que Anthropic ya estaba implementando muchas de estas prácticas, y el acuerdo no era legalmente vinculante. El objetivo de la administración de Biden era resaltar sus prioridades de política de IA antes de que se implementara una Orden Ejecutiva de IA más completa unos meses después.
Por otro lado, la administración de Trump ha señalado un enfoque diferente para la gobernanza de la IA. En enero, el presidente Trump revocó la Orden Ejecutiva de IA, que había ordenado al Instituto Nacional de Estándares y Tecnología crear directrices para que las empresas identifiquen y corrijan defectos en los modelos de IA, incluidos los sesgos. Los aliados de Trump criticaron la orden por sus pesados requisitos de informes, que sentían que obligaban a las empresas a revelar sus secretos comerciales.
Poco después de revocar la Orden Ejecutiva de IA, Trump emitió una nueva directiva para que las agencias federales apoyen el desarrollo de una IA "libre de sesgos ideológicos" que promueva "el florecimiento humano, la competitividad económica y la seguridad nacional". A diferencia de la iniciativa de Biden, la orden de Trump no abordó la lucha contra la discriminación en la IA.
The Midas Project destacó en X que los compromisos de la era de Biden no indicaban que fueran temporales o dependieran del partido político en el poder. Tras las elecciones de noviembre, varias empresas de IA reafirmaron sus compromisos.
Anthropic no es la única empresa que ha ajustado sus políticas públicas desde que Trump asumió el cargo. OpenAI recientemente declaró que defenderá "la libertad intelectual ... sin importar cuán desafiante o controvertido sea un tema" y asegurará que su IA no censure ciertos puntos de vista. OpenAI también eliminó una página de su sitio web que anteriormente destacaba su dedicación a la diversidad, equidad e inclusión (DEI). Estos programas han enfrentado críticas de la administración de Trump, lo que ha llevado a muchas empresas a eliminar o modificar significativamente sus iniciativas de DEI.
Algunos de los asesores de IA de Trump en Silicon Valley, incluidos Marc Andreessen, David Sacks y Elon Musk, han acusado a empresas como Google y OpenAI de censurar la IA al restringir las respuestas de sus chatbots. Sin embargo, laboratorios como OpenAI han negado que los ajustes en sus políticas se deban a presiones políticas.
Tanto OpenAI como Anthropic están actualmente manteniendo o buscando activamente contratos gubernamentales.
Varias horas después de que se publicara este artículo, Anthropic proporcionó a TechCrunch la siguiente declaración:
"Seguimos comprometidos con los compromisos voluntarios de IA establecidos bajo la administración de Biden. Este progreso y las acciones específicas continúan reflejándose en [nuestro] centro de transparencia dentro del contenido. Para evitar más confusiones, agregaremos una sección que cite directamente dónde se alinea nuestro progreso."
Actualizado a las 11:25 a.m. Pacífico: Se agregó una declaración de Anthropic.



Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?




It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?




It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?




Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?




アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒




앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔












