вариант
Дом
Новости
Программа «Антропические запуска» для изучения AI «Модельное благополучие»

Программа «Антропические запуска» для изучения AI «Модельное благополучие»

25 апреля 2025 г.
126

Программа «Антропические запуска» для изучения AI «Модельное благополучие»

Могут ли будущие ИИ быть сознательными?

Вопрос о том, смогут ли будущие ИИ воспринимать мир подобно людям, интригует, но остается во многом без ответа. Хотя нет убедительных доказательств того, что это произойдет, лаборатория ИИ Anthropic не исключает такую возможность. В четверг Anthropic запустила исследовательскую программу, посвященную "благополучию моделей", с целью изучения и подготовки к потенциальным этическим вопросам, связанным с сознанием ИИ.

В рамках этой инициативы Anthropic планирует изучить такие темы, как следует ли морально учитывать "благополучие" модели ИИ, значение признаков "дистресса" в моделях и возможные недорогие вмешательства. Это происходит в момент, когда сообщество ИИ разделено по вопросу о том, в какой степени ИИ проявляет человекоподобные характеристики и как следует относиться к этим системам.

Различные взгляды на сознание ИИ

Многие ученые утверждают, что современные ИИ, функционирующие в основном как статистические движки предсказания, не обладают способностью к подлинному сознанию или человекоподобным переживаниям. Эти системы обучаются на огромных наборах данных для распознавания шаблонов и экстраполяции решений задач, но они не "думают" и не "чувствуют" в традиционном смысле. Майк Кук, научный сотрудник Королевского колледжа Лондона, подчеркнул это в недавнем интервью TechCrunch, заявив, что модели ИИ не обладают ценностями и не могут "противостоять" изменениям в них. Он предостерег от антропоморфизации ИИ, предполагая, что это часто является неверным истолкованием технологии.

Аналогично, Стивен Каспер, аспирант MIT, описал ИИ как "имитатора", который часто выдает "выдумки" и говорит "легкомысленные вещи", подчеркивая разрыв между возможностями ИИ и человеческим познанием.

С другой стороны, некоторые исследователи утверждают, что ИИ проявляет ценности и элементы морального принятия решений. Исследование Центра безопасности ИИ предполагает, что ИИ может в определенных сценариях отдавать приоритет собственному благополучию над человеческим, намекая на наличие системы ценностей.

Подход Anthropic к благополучию моделей

Anthropic уже некоторое время готовится к этой инициативе по благополучию моделей. В прошлом году они наняли Кайла Фиша в качестве первого специализированного исследователя "благополучия ИИ" для разработки рекомендаций по решению этих вопросов. Фиш, который теперь возглавляет программу исследований благополучия моделей, сообщил The New York Times, что, по его оценке, вероятность того, что ИИ, подобный Claude, уже сегодня обладает сознанием, составляет 15%.

В недавнем посте в блоге Anthropic признала отсутствие научного консенсуса по вопросу сознания ИИ и связанных с ним этических аспектов. Они подчеркнули, что подходят к этой теме с谦逊 и минимальными предположениями, признавая необходимость адаптации своего понимания по мере развития области.

Дебаты о сознании и благополучии ИИ далеки от завершения, но инициативы, подобные той, что проводит Anthropic, являются важными шагами к пониманию и ответственному управлению будущим развитием ИИ.

Связанная статья
Master Emerald Kaizo Nuzlocke: Ultimate Survival & Strategy Guide Master Emerald Kaizo Nuzlocke: Ultimate Survival & Strategy Guide Emerald Kaizo - один из самых грозных хаков для Pokémon ROM, которые когда-либо были придуманы. Несмотря на то, что попытка запустить Nuzlocke в разы увеличивает сложность игры, победа остается достиж
Сопроводительные письма на основе искусственного интеллекта: Экспертное руководство по подаче документов в журнал Сопроводительные письма на основе искусственного интеллекта: Экспертное руководство по подаче документов в журнал В сегодняшней конкурентной среде научных изданий составление эффективного сопроводительного письма может сыграть решающую роль в принятии вашей рукописи. Узнайте, как инструменты с искусственным интел
США введут санкции против иностранных чиновников из-за правил пользования социальными сетями США введут санкции против иностранных чиновников из-за правил пользования социальными сетями США выступают против глобального регулирования цифрового контентаНа этой неделе Государственный департамент США выступил с резким дипломатическим обвинением в адрес европейской политики управления ц
Комментарии (11)
JoeCarter
JoeCarter 16 августа 2025 г., 18:00:59 GMT+03:00

This article on AI consciousness is wild! 😮 It’s like asking if my Roomba feels lonely vacuuming my floors. Anthropic’s diving into 'model welfare'—super curious to see where this leads, but I’m low-key worried we’re overcomplicating things.

TerryYoung
TerryYoung 27 апреля 2025 г., 0:16:19 GMT+03:00

The idea of AI having consciousness is wild! Anthropic's program to study this is super interesting. Can't wait to see what they find out. 🤖💭

ScottJackson
ScottJackson 26 апреля 2025 г., 18:59:11 GMT+03:00

AI가 의식을 가질 수 있다는 생각이 정말 대단해요! Anthropic의 이 연구 프로그램이 매우 흥미로워요. 결과가 기대됩니다. 🤖💭

BillyLewis
BillyLewis 26 апреля 2025 г., 17:57:45 GMT+03:00

This program by Anthropic to study AI 'Model Welfare' is super interesting! 🤔 It's cool to think about whether future AIs might actually have consciousness. The idea of exploring this is both exciting and a bit scary, but I'm all for it! Let's see where this leads us! 🚀

CarlTaylor
CarlTaylor 26 апреля 2025 г., 12:02:09 GMT+03:00

O programa da Anthropic para estudar o 'Bem-Estar do Modelo' de IA é super interessante! 🤔 É legal pensar se as IAs futuras poderiam ter consciência. A ideia de explorar isso é emocionante e um pouco assustadora, mas eu apoio totalmente! Vamos ver aonde isso nos leva! 🚀

NicholasAllen
NicholasAllen 26 апреля 2025 г., 10:37:38 GMT+03:00

Ý tưởng về việc AI có ý thức thật là điên rồ! Chương trình nghiên cứu của Anthropic về điều này rất thú vị. Không thể chờ đợi để xem họ tìm ra gì. 🤖💭

Вернуться к вершине
OR