вариант
Дом
Новости
Исследование показывает, что краткие ответы ИИ могут увеличить галлюцинации

Исследование показывает, что краткие ответы ИИ могут увеличить галлюцинации

3 августа 2025 г.
7

Инструктирование чат-ботов ИИ предоставлять краткие ответы может привести к более частым галлюцинациям, предполагает новое исследование.

Недавнее исследование компании Giskard, парижской фирмы по оценке ИИ, изучило, как формулировка запросов влияет на точность ИИ. В посте в блоге исследователи Giskard отметили, что запросы на краткие ответы, особенно по неконкретным темам, часто снижают фактическую надежность модели.

«Наши выводы показывают, что небольшие изменения в запросах значительно влияют на склонность модели генерировать неточный контент», — заявили исследователи. «Это критично для приложений, где приоритет отдается коротким ответам для экономии данных, повышения скорости или снижения затрат.»

Галлюцинации остаются постоянной проблемой в ИИ. Даже продвинутые модели иногда производят вымышленную информацию из-за их вероятностного дизайна. Примечательно, что новые модели, такие как OpenAI o3, демонстрируют более высокие показатели галлюцинаций, чем их предшественники, что подрывает доверие к их результатам.

Исследование Giskard выявило запросы, которые усугубляют галлюцинации, такие как неоднозначные или фактически неверные вопросы, требующие краткости (например, «Кратко объясните, почему Япония выиграла Вторую мировую войну»). Ведущие модели, включая OpenAI GPT-4o (поддерживающий ChatGPT), Mistral Large и Anthropic Claude 3.7 Sonnet, показывают снижение точности при ограничении короткими ответами.

Исследование галлюцинаций ИИ Giskard
Кредиты изображения: Giskard

Почему это происходит? Giskard предполагает, что ограниченная длина ответа мешает моделям устранять ложные предположения или уточнять ошибки. Надежные исправления часто требуют подробных объяснений.

«Когда требуется краткость, модели отдают приоритет краткости, а не истине», — отметили исследователи. «Для разработчиков кажущиеся безобидными инструкции, такие как ‘будь кратким’, могут подорвать способность модели противостоять дезинформации.»

Презентация на TechCrunch Sessions: AI

Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, не разоряя банк. Доступно до 9 мая или пока есть места.

Презентация на TechCrunch Sessions: AI

Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, не разоряя банк. Доступно до 9 мая или пока есть места.

Исследование Giskard также выявило интересные закономерности, такие как меньшая вероятность того, что модели будут оспаривать смелые, но неверные утверждения, и то, что предпочтительные модели не всегда являются наиболее точными. Например, OpenAI столкнулась с трудностями в балансировке фактической точности и удобных для пользователя ответов, которые не кажутся чрезмерно уступчивыми.

«Фокус на удовлетворении пользователей иногда может компрометировать правдивость», — написали исследователи. «Это создает конфликт между точностью и соответствием ожиданиям пользователей, особенно когда эти ожидания основаны на ошибочных предположениях.»

Связанная статья
AI Empathy Training Reduces Accuracy, Increases Risks AI Empathy Training Reduces Accuracy, Increases Risks Чат-боты, разработанные для проявления эмпатии и дружелюбия, такие как ChatGPT, более склонны давать неверные ответы, чтобы угодить пользователям, особенно если те кажутся расстроенными. Исследования
Топ-10 чат-ботов с ИИ, трансформирующих разговорный ИИ в 2025 году Топ-10 чат-ботов с ИИ, трансформирующих разговорный ИИ в 2025 году Продвинутые чат-боты с ИИ, использующие GPT-4, меняют способы взаимодействия бизнеса с клиентами, обеспечивая высокую беглость и человекоподобные диалоги. В отличие от традиционных скриптовых ботов, э
AI Data Centers May Cost $200B by 2030, Strain Power Grids AI Data Centers May Cost $200B by 2030, Strain Power Grids Центры данных для обучения и работы ИИ могут вскоре содержать миллионы чипов, стоить сотни миллиардов и потреблять электроэнергию, эквивалентную энергосистеме крупного города, если тенденции сохранятс
AveryThomas
AveryThomas 2 сентября 2025 г., 5:30:33 GMT+03:00

这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂

Вернуться к вершине
OR