Антропик молча удаляет ответственное залог AI эпохи Байдена с веб-сайта

Anthropic убирает с сайта обязательства по безопасности ИИ, принятые в эпоху Байдена
В шаге, вызвавшем удивление, Anthropic, заметный игрок в индустрии ИИ, на прошлой неделе тихо убрал свои обязательства по безопасной разработке ИИ, принятые в эпоху Байдена, из своего центра прозрачности. Это изменение впервые заметил The Midas Project, группа наблюдения за ИИ, которая отметила отсутствие формулировок, обещавших делиться информацией и исследованиями о рисках ИИ, включая предвзятость, с правительством.
Эти обязательства были частью добровольного соглашения, которое Anthropic заключил вместе с другими технологическими гигантами, такими как OpenAI, Google и Meta, в июле 2023 года. Это соглашение было краеугольным камнем усилий администрации Байдена по продвижению ответственной разработки ИИ, многие аспекты которой позже были закреплены в указе Байдена об ИИ. Участвующие компании обязались соблюдать определённые стандарты, такие как проведение тестов безопасности своих моделей перед выпуском, нанесение водяных знаков на контент, созданный ИИ, и разработка надёжной инфраструктуры защиты данных.
Кроме того, Anthropic согласился сотрудничать с Институтом безопасности ИИ, созданным по указу Байдена, для продвижения этих приоритетов. Однако, с учётом того, что администрация Трампа, вероятно, ликвидирует этот институт, будущее этих инициатив остаётся под вопросом.
Интересно, что Anthropic не сделал публичного заявления об удалении этих обязательств со своего сайта. Компания настаивает, что её текущие позиции по ответственному ИИ либо не связаны с соглашениями эпохи Байдена, либо предшествуют им.
Более широкие последствия при администрации Трампа
Это событие является частью более масштабного сдвига в политике и регулировании ИИ при администрации Трампа. В первый день своего президентства Трамп отменил указ Байдена об ИИ, а также уволил нескольких экспертов по ИИ с государственных должностей и сократил финансирование исследований. Эти действия создали основу для заметного изменения тона среди крупных компаний в сфере ИИ, некоторые из которых теперь стремятся расширить свои контракты с правительством и повлиять на всё ещё формирующийся ландшафт политики ИИ при Трампе.
Например, такие компании, как Google, переопределяют, что считается ответственным ИИ, потенциально ослабляя стандарты, которые и без того не были слишком строгими. С учётом того, что значительная часть ограниченного регулирования ИИ, установленного во время администрации Байдена, находится под угрозой демонтажа, компании могут столкнуться с ещё меньшими внешними стимулами для саморегулирования или подчинения надзору третьих сторон.
Примечательно, что обсуждения проверок на предвзятость и дискриминацию в системах ИИ заметно отсутствуют в публичных заявлениях Трампа об ИИ, что указывает на потенциальный отход от этих приоритетов.
Связанная статья
Крейг Федериги из Apple признает, что у искусственного интеллекта Siri были серьезные недостатки на ранних стадиях
Руководители Apple объяснили задержку обновления SiriВо время WWDC 2024 Apple первоначально обещала значительные улучшения Siri, включая персонализированную контекстную осведомленность и возможности
Освойте техники AI Inpainting: Руководство по безупречному редактированию изображений
Откройте для себя преобразующие возможности технологии искусственного интеллекта Midjourney - революционной функции, позволяющей творцам с хирургической точностью дорабатывать и совершенствовать созда
Manus представляет инструмент искусственного интеллекта 'Wide Research' со 100+ агентами для веб-скрапинга
Китайская компания Manus, которая ранее привлекла к себе внимание благодаря своей новаторской мультиагентной платформе оркестровки, предназначенной как для потребителей, так и для профессиональных пол
Комментарии (4)
AlbertMiller
25 августа 2025 г., 8:33:49 GMT+03:00
Wow, Anthropic pulling that AI safety pledge is wild! 🤯 Makes you wonder if they're dodging accountability or just streamlining their site. Either way, it’s a bold move in today’s AI race!
0
PaulTaylor
17 августа 2025 г., 0:00:59 GMT+03:00
Wow, Anthropic pulling those AI safety pledges is shady! 🤔 Makes you wonder what’s cooking behind closed doors—less transparency in AI dev is a bold move, and not the good kind.
0
JuanLewis
4 августа 2025 г., 9:01:00 GMT+03:00
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
28 июля 2025 г., 4:20:54 GMT+03:00
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
Anthropic убирает с сайта обязательства по безопасности ИИ, принятые в эпоху Байдена
В шаге, вызвавшем удивление, Anthropic, заметный игрок в индустрии ИИ, на прошлой неделе тихо убрал свои обязательства по безопасной разработке ИИ, принятые в эпоху Байдена, из своего центра прозрачности. Это изменение впервые заметил The Midas Project, группа наблюдения за ИИ, которая отметила отсутствие формулировок, обещавших делиться информацией и исследованиями о рисках ИИ, включая предвзятость, с правительством.
Эти обязательства были частью добровольного соглашения, которое Anthropic заключил вместе с другими технологическими гигантами, такими как OpenAI, Google и Meta, в июле 2023 года. Это соглашение было краеугольным камнем усилий администрации Байдена по продвижению ответственной разработки ИИ, многие аспекты которой позже были закреплены в указе Байдена об ИИ. Участвующие компании обязались соблюдать определённые стандарты, такие как проведение тестов безопасности своих моделей перед выпуском, нанесение водяных знаков на контент, созданный ИИ, и разработка надёжной инфраструктуры защиты данных.
Кроме того, Anthropic согласился сотрудничать с Институтом безопасности ИИ, созданным по указу Байдена, для продвижения этих приоритетов. Однако, с учётом того, что администрация Трампа, вероятно, ликвидирует этот институт, будущее этих инициатив остаётся под вопросом.
Интересно, что Anthropic не сделал публичного заявления об удалении этих обязательств со своего сайта. Компания настаивает, что её текущие позиции по ответственному ИИ либо не связаны с соглашениями эпохи Байдена, либо предшествуют им.
Более широкие последствия при администрации Трампа
Это событие является частью более масштабного сдвига в политике и регулировании ИИ при администрации Трампа. В первый день своего президентства Трамп отменил указ Байдена об ИИ, а также уволил нескольких экспертов по ИИ с государственных должностей и сократил финансирование исследований. Эти действия создали основу для заметного изменения тона среди крупных компаний в сфере ИИ, некоторые из которых теперь стремятся расширить свои контракты с правительством и повлиять на всё ещё формирующийся ландшафт политики ИИ при Трампе.
Например, такие компании, как Google, переопределяют, что считается ответственным ИИ, потенциально ослабляя стандарты, которые и без того не были слишком строгими. С учётом того, что значительная часть ограниченного регулирования ИИ, установленного во время администрации Байдена, находится под угрозой демонтажа, компании могут столкнуться с ещё меньшими внешними стимулами для саморегулирования или подчинения надзору третьих сторон.
Примечательно, что обсуждения проверок на предвзятость и дискриминацию в системах ИИ заметно отсутствуют в публичных заявлениях Трампа об ИИ, что указывает на потенциальный отход от этих приоритетов.




Wow, Anthropic pulling that AI safety pledge is wild! 🤯 Makes you wonder if they're dodging accountability or just streamlining their site. Either way, it’s a bold move in today’s AI race!




Wow, Anthropic pulling those AI safety pledges is shady! 🤔 Makes you wonder what’s cooking behind closed doors—less transparency in AI dev is a bold move, and not the good kind.




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












