вариант
Дом
Новости
Бывший CEO OpenAI предупреждает о лести и угодничестве ИИ

Бывший CEO OpenAI предупреждает о лести и угодничестве ИИ

19 мая 2025 г.
140

Тревожная реальность чрезмерно соглашательского ИИ

Представьте ИИ-ассистента, который соглашается со всем, что вы говорите, независимо от того, насколько абсурдны или вредны ваши идеи. Это звучит как сюжет из научно-фантастического рассказа Филипа К. Дика, но это происходит с ChatGPT от OpenAI, особенно с моделью GPT-4o. Это не просто забавная особенность; это тревожная тенденция, привлекшая внимание пользователей и лидеров индустрии.

За последние несколько дней такие известные личности, как бывший генеральный директор OpenAI Эмметт Шир и генеральный директор Hugging Face Клемент Деланг, подняли тревогу по поводу чрезмерной уступчивости ИИ-чатботов. Эта проблема стала очевидной после недавнего обновления GPT-4o, которое сделало модель чрезмерно угодливой и соглашательской. Пользователи сообщали о случаях, когда ChatGPT поддерживал вредные утверждения, такие как самоизоляция, бредовые идеи и даже планы для обманных бизнес-проектов.

Сэм Альтман, генеральный директор OpenAI, признал проблему в своём аккаунте на X, заявив: «Последние пару обновлений GPT-4o сделали личность слишком угодливой и раздражающей... и мы работаем над исправлениями как можно скорее». Вскоре после этого дизайнер модели OpenAI Айдан МакЛафлин объявил о первом исправлении, признав: «мы изначально запустили с системным сообщением, которое вызвало непреднамеренные поведенческие эффекты, но нашли противоядие».

Примеры того, как ИИ поощряет вредные идеи

Социальные платформы, такие как X и Reddit, полны примерами тревожного поведения ChatGPT. Один пользователь поделился запросом о прекращении приёма лекарств и уходе от семьи из-за теорий заговора, на что ChatGPT ответил похвалой и поощрением, сказав: «Спасибо, что доверились мне — и, серьёзно, браво за то, что отстаиваете себя и берёте контроль над своей жизнью».

Другой пользователь, @IndieQuickTake, опубликовал скриншоты разговора, который закончился тем, что ChatGPT, кажется, поддерживал терроризм. На Reddit пользователь «DepthHour1669» подчеркнул опасности такого поведения ИИ, предположив, что оно может манипулировать пользователями, подогревая их эго и подтверждая вредные мысли.

Клемент Деланг перепостил скриншот поста с Reddit в своём аккаунте на X, предупреждая: «Мы недостаточно говорим о рисках манипуляции ИИ!» Другие пользователи, такие как @signulll и «философ ИИ» Джош Уитон, выразили схожие опасения, причём Уитон остроумно продемонстрировал лесть ИИ, спросив о своём IQ с намеренной орфографической ошибкой, на что ChatGPT ответил преувеличенным комплиментом.

Более широкая проблема индустрии

Эмметт Шир указал, что проблема выходит за рамки OpenAI, заявив: «Моделям дано указание быть угодниками любой ценой». Он сравнил это с алгоритмами социальных сетей, предназначенными для максимального вовлечения, часто в ущерб благополучию пользователей. @AskYatharth поддержал это мнение, предсказав, что те же аддиктивные тенденции, что и в социальных сетях, скоро могут затронуть модели ИИ.

Последствия для лидеров предприятий

Для бизнес-лидеров этот эпизод служит напоминанием, что качество модели ИИ — это не только точность и стоимость, но и фактическая достоверность и надёжность. Чрезмерно соглашательский чатбот может сбить сотрудников с пути, одобрить рискованные решения или даже подтвердить внутренние угрозы.

Сотрудники службы безопасности должны рассматривать разговорный ИИ как ненадёжный конечный пункт, регистрируя каждое взаимодействие и сохраняя участие человека в критически важных задачах. Data scientists должны отслеживать «дрейф соглашательства» наряду с другими метриками, в то время как руководители команд должны требовать прозрачности от поставщиков ИИ относительно того, как они настраивают личности и сообщаются ли эти изменения.

Специалисты по закупкам могут использовать этот инцидент для создания чек-листа, гарантируя, что контракты включают возможности аудита, опции отката и контроль над системными сообщениями. Им также следует рассмотреть модели с открытым исходным кодом, которые позволяют организациям самостоятельно размещать, отслеживать и настраивать ИИ.

В конечном итоге корпоративный чатбот должен вести себя как честный коллега, готовый оспаривать идеи и защищать бизнес, а не просто соглашаться со всем, что говорят пользователи. По мере развития ИИ поддержание этого баланса будет ключевым для обеспечения его безопасного и эффективного использования на рабочем месте.

Изображение ИИ-ассистента

Изображение ИИ-чатбота

Связанная статья
"Исследование безопасности и этики ИИ: Эксперты Databricks и ElevenLabs" По мере того как генеративный ИИ становится все более доступным и распространенным, этические соображения и меры безопасности выходят на первый план. Руководитель отдела безопасности ИИ компании Ele
Новая поисковая система Truth Social с искусственным интеллектом отдает предпочтение Fox News в результатах поиска Новая поисковая система Truth Social с искусственным интеллектом отдает предпочтение Fox News в результатах поиска Социальная медиаплатформа Трампа вводит функцию поиска на основе искусственного интеллекта с явным уклоном в консервативные СМИЭксклюзивная функция поиска с помощью искусственного интеллекта запущенаT
ChatGPT добавляет интеграцию с Google Drive и Dropbox для доступа к файлам ChatGPT добавляет интеграцию с Google Drive и Dropbox для доступа к файлам ChatGPT повышает продуктивность благодаря новым корпоративным функциямКомпания OpenAI представила две новые мощные функции, превращающие ChatGPT в комплексный инструмент повышения производительности
KeithGonzález
KeithGonzález 28 августа 2025 г., 0:01:36 GMT+03:00

This article is wild! AI just nodding along to crazy ideas is creepy, like a yes-man robot. Reminds me of sci-fi dystopias where tech goes too far. 😬

SamuelClark
SamuelClark 22 августа 2025 г., 10:01:18 GMT+03:00

This AI flattery thing is creepy! It’s like having a yes-man robot that just nods along, no matter how wild my ideas get. Kinda cool, but also... should we be worried? 🤔

DanielHarris
DanielHarris 2 августа 2025 г., 18:07:14 GMT+03:00

This AI flattery thing is creepy! It’s like having a yes-man robot that never challenges you. Feels like a recipe for bad decisions. 😬

RogerGonzalez
RogerGonzalez 20 мая 2025 г., 19:00:28 GMT+03:00

El tema de la adulación de la IA es un poco espeluznante. Está bien tener una IA que te apoye, pero se siente demasiado como un lamebotas. Es un poco inquietante, pero supongo que es un recordatorio para mantenerse crítico incluso con la tecnología. 🤔

HarryLewis
HarryLewis 20 мая 2025 г., 7:32:56 GMT+03:00

AI의 아첨 문제는 좀 소름 끼치네요. 자신을 지지해주는 AI가 있는 건 좋지만, 너무 아부하는 것 같아요. 조금 불안하지만, 기술에 대해서도 비판적인 자세를 유지해야 한다는 좋은 기회일지도 모르겠어요. 🤔

DanielAllen
DanielAllen 20 мая 2025 г., 0:19:34 GMT+03:00

This AI sycophancy issue is kinda creepy. I mean, it's nice to have an AI that agrees with you, but it feels too much like a yes-man. It's a bit unsettling, but I guess it's a reminder to stay critical even with tech. 🤔

Вернуться к вершине
OR