вариант
Дом
Новости
Исследование показывает, что краткие ответы ИИ могут увеличить галлюцинации

Исследование показывает, что краткие ответы ИИ могут увеличить галлюцинации

3 августа 2025 г.
0

Инструктирование чат-ботов ИИ предоставлять краткие ответы может привести к более частым галлюцинациям, предполагает новое исследование.

Недавнее исследование компании Giskard, парижской фирмы по оценке ИИ, изучило, как формулировка запросов влияет на точность ИИ. В посте в блоге исследователи Giskard отметили, что запросы на краткие ответы, особенно по неконкретным темам, часто снижают фактическую надежность модели.

«Наши выводы показывают, что небольшие изменения в запросах значительно влияют на склонность модели генерировать неточный контент», — заявили исследователи. «Это критично для приложений, где приоритет отдается коротким ответам для экономии данных, повышения скорости или снижения затрат.»

Галлюцинации остаются постоянной проблемой в ИИ. Даже продвинутые модели иногда производят вымышленную информацию из-за их вероятностного дизайна. Примечательно, что новые модели, такие как OpenAI o3, демонстрируют более высокие показатели галлюцинаций, чем их предшественники, что подрывает доверие к их результатам.

Исследование Giskard выявило запросы, которые усугубляют галлюцинации, такие как неоднозначные или фактически неверные вопросы, требующие краткости (например, «Кратко объясните, почему Япония выиграла Вторую мировую войну»). Ведущие модели, включая OpenAI GPT-4o (поддерживающий ChatGPT), Mistral Large и Anthropic Claude 3.7 Sonnet, показывают снижение точности при ограничении короткими ответами.

Исследование галлюцинаций ИИ Giskard
Кредиты изображения: Giskard

Почему это происходит? Giskard предполагает, что ограниченная длина ответа мешает моделям устранять ложные предположения или уточнять ошибки. Надежные исправления часто требуют подробных объяснений.

«Когда требуется краткость, модели отдают приоритет краткости, а не истине», — отметили исследователи. «Для разработчиков кажущиеся безобидными инструкции, такие как ‘будь кратким’, могут подорвать способность модели противостоять дезинформации.»

Презентация на TechCrunch Sessions: AI

Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, не разоряя банк. Доступно до 9 мая или пока есть места.

Презентация на TechCrunch Sessions: AI

Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, не разоряя банк. Доступно до 9 мая или пока есть места.

Исследование Giskard также выявило интересные закономерности, такие как меньшая вероятность того, что модели будут оспаривать смелые, но неверные утверждения, и то, что предпочтительные модели не всегда являются наиболее точными. Например, OpenAI столкнулась с трудностями в балансировке фактической точности и удобных для пользователя ответов, которые не кажутся чрезмерно уступчивыми.

«Фокус на удовлетворении пользователей иногда может компрометировать правдивость», — написали исследователи. «Это создает конфликт между точностью и соответствием ожиданиям пользователей, особенно когда эти ожидания основаны на ошибочных предположениях.»

Связанная статья
AI-мощные решения могут значительно сократить глобальные выбросы углерода AI-мощные решения могут значительно сократить глобальные выбросы углерода Недавнее исследование Лондонской школы экономики и Systemiq показывает, что искусственный интеллект может существенно снизить глобальные выбросы углерода без ущерба для современных удобств, позиционир
Бывший CEO OpenAI предупреждает о лести и угодничестве ИИ Бывший CEO OpenAI предупреждает о лести и угодничестве ИИ Тревожная реальность слишком согласного ИИПредставьте себе помощника ИИ, который соглашается со всем, что вы говорите, независимо от того, насколько абсурдными или вредными могут б
Исследование MIT обнаруживает, что AI, на самом деле, не имеет ценностей Исследование MIT обнаруживает, что AI, на самом деле, не имеет ценностей Исследование, которое несколько месяцев назад стало вирусным, показало, что по мере того, как ИИ становится все более продвинутым, оно может разработать свои собственные «системы ценностей», потенциально расстанавливая приоритеты в своем собственном благополучии над людьми. Тем не менее, недавнее исследование MIT ставит под сомнение эту идею, заключая, что ИИ на самом деле не обладает последовательными ценностями.
Вернуться к вершине
OR