Антропический удаляет политику ИИ Байдена с веб -сайта тихо
Anthropic, компания, сосредоточенная на разработке ИИ, недавно удалила с своего сайта несколько добровольных обязательств по безопасности ИИ, которые были приняты в сотрудничестве с администрацией Байдена в 2023 году. Эти обязательства, направленные на продвижение безопасного и надежного ИИ, включали обмен информацией об управлении рисками ИИ и проведение исследований по вопросам предвзятости и дискриминации в ИИ. Группа по наблюдению за ИИ, The Midas Project, указала, что эти обязательства были удалены из центра прозрачности Anthropic на прошлой неделе. Однако обязательства, связанные с уменьшением сексуального насилия на основе изображений, созданных ИИ, всё ещё остаются в силе.
Anthropic не объявляла об этом изменении и не сразу ответила на запросы о комментариях. Компания, наряду с другими, такими как OpenAI, Google, Microsoft, Meta и Inflection, согласилась следовать определённым добровольным мерам по безопасности ИИ, предложенным администрацией Байдена в июле 2023 года. Эти меры включали внутреннее и внешнее тестирование безопасности систем ИИ перед их выпуском, инвестиции в кибербезопасность для защиты конфиденциальных данных ИИ и разработку способов водяной маркировки контента, созданного ИИ.
Стоит отметить, что Anthropic уже применяла многие из этих практик, и соглашение не было юридически обязательным. Целью администрации Байдена было подчеркнуть приоритеты своей политики в области ИИ до введения более всеобъемлющего указа об ИИ через несколько месяцев.
Администрация Трампа, с другой стороны, сигнализировала о другом подходе к управлению ИИ. В январе президент Трамп отменил указ об ИИ, который предписывал Национальному институту стандартов и технологий создать рекомендации для компаний по выявлению и устранению недостатков в моделях ИИ, включая предвзятость. Союзники Трампа критиковали указ за его строгие требования к отчётности, которые, по их мнению, вынуждали компании раскрывать свои коммерческие секреты.
Вскоре после отмены указа об ИИ Трамп издал новое распоряжение для федеральных агентств поддерживать развитие ИИ, "свободного от идеологической предвзятости", которое будет способствовать "процветанию человека, экономической конкурентоспособности и национальной безопасности". В отличие от инициативы Байдена, указ Трампа не затрагивал борьбу с дискриминацией в ИИ.
The Midas Project отметила на X, что обязательства эпохи Байдена не указывали на то, что они были временными или зависели от политической партии у власти. После выборов в ноябре несколько компаний в области ИИ подтвердили свои обязательства.
Anthropic — не единственная компания, которая скорректировала свою публичную политику после прихода к власти Трампа. OpenAI недавно заявила, что будет отстаивать "интеллектуальную свободу ... независимо от того, насколько сложной или противоречивой может быть тема", и гарантировать, что её ИИ не будет цензурировать определённые точки зрения. OpenAI также удалила со своего сайта страницу, которая ранее демонстрировала её приверженность разнообразию, равенству и инклюзии (DEI). Эти программы подверглись критике со стороны администрации Трампа, что побудило многие компании либо отказаться от своих инициатив DEI, либо существенно их изменить.
Некоторые советники Трампа по ИИ из Кремниевой долины, включая Марка Андрессена, Дэвида Сакса и Илона Маска, обвинили компании, такие как Google и OpenAI, в цензуре ИИ путём ограничения ответов их чат-ботов. Однако лаборатории, такие как OpenAI, отрицают, что корректировки их политики связаны с политическим давлением.
И OpenAI, и Anthropic в настоящее время либо имеют, либо активно ищут государственные контракты.
Спустя несколько часов после публикации этой статьи Anthropic предоставила TechCrunch следующее заявление:
"Мы остаёмся привержены добровольным обязательствам по ИИ, установленным при администрации Байдена. Этот прогресс и конкретные действия продолжают отражаться в [нашем] центре прозрачности в содержании. Чтобы избежать дальнейшей путаницы, мы добавим раздел, прямо указывающий, где наш прогресс соответствует этим обязательствам."
Обновлено в 11:25 по тихоокеанскому времени: Добавлено заявление от Anthropic.
Связанная статья
Сопроводительные письма на основе искусственного интеллекта: Экспертное руководство по подаче документов в журнал
В сегодняшней конкурентной среде научных изданий составление эффективного сопроводительного письма может сыграть решающую роль в принятии вашей рукописи. Узнайте, как инструменты с искусственным интел
США введут санкции против иностранных чиновников из-за правил пользования социальными сетями
США выступают против глобального регулирования цифрового контентаНа этой неделе Государственный департамент США выступил с резким дипломатическим обвинением в адрес европейской политики управления ц
Окончательное руководство по обобщающим анализаторам видео на YouTube с поддержкой искусственного интеллекта
В нашем перенасыщенном информацией цифровом ландшафте, обобщающие видео на YouTube с помощью искусственного интеллекта стали незаменимы для эффективного потребления контента. В этом подробном руководс
Комментарии (84)
GeorgeScott
20 августа 2025 г., 14:01:15 GMT+03:00
Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?
0
GaryHill
18 августа 2025 г., 23:01:31 GMT+03:00
It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?
0
GaryJones
13 августа 2025 г., 4:00:59 GMT+03:00
It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?
0
JimmyWhite
1 августа 2025 г., 16:47:34 GMT+03:00
Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?
0
WillieHernández
19 апреля 2025 г., 9:53:51 GMT+03:00
アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒
0
EricRoberts
18 апреля 2025 г., 4:47:11 GMT+03:00
앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔
0
Anthropic, компания, сосредоточенная на разработке ИИ, недавно удалила с своего сайта несколько добровольных обязательств по безопасности ИИ, которые были приняты в сотрудничестве с администрацией Байдена в 2023 году. Эти обязательства, направленные на продвижение безопасного и надежного ИИ, включали обмен информацией об управлении рисками ИИ и проведение исследований по вопросам предвзятости и дискриминации в ИИ. Группа по наблюдению за ИИ, The Midas Project, указала, что эти обязательства были удалены из центра прозрачности Anthropic на прошлой неделе. Однако обязательства, связанные с уменьшением сексуального насилия на основе изображений, созданных ИИ, всё ещё остаются в силе.
Anthropic не объявляла об этом изменении и не сразу ответила на запросы о комментариях. Компания, наряду с другими, такими как OpenAI, Google, Microsoft, Meta и Inflection, согласилась следовать определённым добровольным мерам по безопасности ИИ, предложенным администрацией Байдена в июле 2023 года. Эти меры включали внутреннее и внешнее тестирование безопасности систем ИИ перед их выпуском, инвестиции в кибербезопасность для защиты конфиденциальных данных ИИ и разработку способов водяной маркировки контента, созданного ИИ.
Стоит отметить, что Anthropic уже применяла многие из этих практик, и соглашение не было юридически обязательным. Целью администрации Байдена было подчеркнуть приоритеты своей политики в области ИИ до введения более всеобъемлющего указа об ИИ через несколько месяцев.
Администрация Трампа, с другой стороны, сигнализировала о другом подходе к управлению ИИ. В январе президент Трамп отменил указ об ИИ, который предписывал Национальному институту стандартов и технологий создать рекомендации для компаний по выявлению и устранению недостатков в моделях ИИ, включая предвзятость. Союзники Трампа критиковали указ за его строгие требования к отчётности, которые, по их мнению, вынуждали компании раскрывать свои коммерческие секреты.
Вскоре после отмены указа об ИИ Трамп издал новое распоряжение для федеральных агентств поддерживать развитие ИИ, "свободного от идеологической предвзятости", которое будет способствовать "процветанию человека, экономической конкурентоспособности и национальной безопасности". В отличие от инициативы Байдена, указ Трампа не затрагивал борьбу с дискриминацией в ИИ.
The Midas Project отметила на X, что обязательства эпохи Байдена не указывали на то, что они были временными или зависели от политической партии у власти. После выборов в ноябре несколько компаний в области ИИ подтвердили свои обязательства.
Anthropic — не единственная компания, которая скорректировала свою публичную политику после прихода к власти Трампа. OpenAI недавно заявила, что будет отстаивать "интеллектуальную свободу ... независимо от того, насколько сложной или противоречивой может быть тема", и гарантировать, что её ИИ не будет цензурировать определённые точки зрения. OpenAI также удалила со своего сайта страницу, которая ранее демонстрировала её приверженность разнообразию, равенству и инклюзии (DEI). Эти программы подверглись критике со стороны администрации Трампа, что побудило многие компании либо отказаться от своих инициатив DEI, либо существенно их изменить.
Некоторые советники Трампа по ИИ из Кремниевой долины, включая Марка Андрессена, Дэвида Сакса и Илона Маска, обвинили компании, такие как Google и OpenAI, в цензуре ИИ путём ограничения ответов их чат-ботов. Однако лаборатории, такие как OpenAI, отрицают, что корректировки их политики связаны с политическим давлением.
И OpenAI, и Anthropic в настоящее время либо имеют, либо активно ищут государственные контракты.
Спустя несколько часов после публикации этой статьи Anthropic предоставила TechCrunch следующее заявление:
"Мы остаёмся привержены добровольным обязательствам по ИИ, установленным при администрации Байдена. Этот прогресс и конкретные действия продолжают отражаться в [нашем] центре прозрачности в содержании. Чтобы избежать дальнейшей путаницы, мы добавим раздел, прямо указывающий, где наш прогресс соответствует этим обязательствам."
Обновлено в 11:25 по тихоокеанскому времени: Добавлено заявление от Anthropic.




Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?




It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?




It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?




Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?




アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒




앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔












