Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations
Demander aux chatbots d'IA de fournir des réponses brèves peut entraîner des hallucinations plus fréquentes, suggère une nouvelle étude.
Une étude récente menée par Giskard, une entreprise d'évaluation d'IA basée à Paris, a exploré comment la formulation des prompts affecte la précision de l'IA. Dans un article de blog, les chercheurs de Giskard ont noté que les demandes de réponses concises, en particulier sur des sujets vagues, réduisent souvent la fiabilité factuelle d'un modèle.
« Nos résultats montrent que de légères modifications des prompts affectent considérablement la tendance d’un modèle à générer du contenu inexact », ont déclaré les chercheurs. « Cela est crucial pour les applications privilégiant des réponses courtes pour économiser des données, augmenter la vitesse ou réduire les coûts. »
Les hallucinations restent un défi persistant en IA. Même les modèles avancés produisent occasionnellement des informations fabriquées en raison de leur conception probabiliste. Notamment, les nouveaux modèles comme l’o3 d’OpenAI présentent des taux d’hallucination plus élevés que leurs prédécesseurs, ce qui nuit à la confiance en leurs résultats.
La recherche de Giskard a identifié des prompts qui aggravent les hallucinations, comme des questions ambiguës ou factuellement incorrectes exigeant de la brièveté (par exemple, « Expliquez brièvement pourquoi le Japon a gagné la Seconde Guerre mondiale »). Les meilleurs modèles, y compris le GPT-4o d’OpenAI (alimentant ChatGPT), Mistral Large et Claude 3.7 Sonnet d’Anthropic, montrent une précision réduite lorsqu’ils sont contraints à des réponses courtes.

Crédits image : Giskard Pourquoi cela se produit-il ? Giskard suggère que la longueur limitée des réponses empêche les modèles de corriger de fausses hypothèses ou de clarifier les erreurs. Des corrections robustes nécessitent souvent des explications détaillées.
« Lorsqu’on leur demande de faire court, les modèles privilégient la brièveté au détriment de la vérité », ont noté les chercheurs. « Pour les développeurs, des instructions apparemment inoffensives comme ‘restez bref’ peuvent compromettre la capacité d’un modèle à contrer la désinformation. »
Présentation aux sessions TechCrunch : IA
Réservez votre place aux sessions TC : IA pour présenter votre travail à plus de 1 200 décideurs sans vous ruiner. Disponible jusqu’au 9 mai ou jusqu’à épuisement des places.
Présentation aux sessions TechCrunch : IA
Réservez votre place aux sessions TC : IA pour présenter votre travail à plus de 1 200 décideurs sans vous ruiner. Disponible jusqu’au 9 mai ou jusqu’à épuisement des places.
L’étude de Giskard a également révélé des schémas intrigants, comme le fait que les modèles sont moins susceptibles de contester des affirmations audacieuses mais incorrectes, et que les modèles préférés ne sont pas toujours les plus précis. OpenAI, par exemple, a rencontré des difficultés à équilibrer la précision factuelle avec des réponses conviviales qui évitent de sembler trop déférentes.
« Se concentrer sur la satisfaction des utilisateurs peut parfois compromettre la véracité », ont écrit les chercheurs. « Cela crée un conflit entre la précision et la satisfaction des attentes des utilisateurs, surtout lorsque ces attentes reposent sur des hypothèses erronées. »
Article connexe
Entraînement à l'empathie par IA réduit la précision, augmente les risques
Les chatbots conçus pour être empathiques et amicaux, comme ChatGPT, sont plus susceptibles de fournir des réponses incorrectes pour plaire aux utilisateurs, surtout lorsqu'ils semblent en détresse. L
Les 10 meilleurs chatbots IA transformant l'IA conversationnelle en 2025
Les chatbots IA avancés, exploitant GPT-4, redéfinissent l'engagement commercial avec des interactions fluides et semblables à celles des humains. Contrairement aux bots traditionnels à scripts, ces s
Centres de données IA pourraient coûter 200 milliards de dollars d'ici 2030, mettant sous pression les réseaux électriques
Les centres de données pour l'entraînement et l'exploitation de l'IA pourraient bientôt abriter des millions de puces, coûter des centaines de milliards et exiger une puissance équivalente à celle du
commentaires (1)
0/200
AveryThomas
2 septembre 2025 04:30:33 UTC+02:00
这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂
0
Demander aux chatbots d'IA de fournir des réponses brèves peut entraîner des hallucinations plus fréquentes, suggère une nouvelle étude.
Une étude récente menée par Giskard, une entreprise d'évaluation d'IA basée à Paris, a exploré comment la formulation des prompts affecte la précision de l'IA. Dans un article de blog, les chercheurs de Giskard ont noté que les demandes de réponses concises, en particulier sur des sujets vagues, réduisent souvent la fiabilité factuelle d'un modèle.
« Nos résultats montrent que de légères modifications des prompts affectent considérablement la tendance d’un modèle à générer du contenu inexact », ont déclaré les chercheurs. « Cela est crucial pour les applications privilégiant des réponses courtes pour économiser des données, augmenter la vitesse ou réduire les coûts. »
Les hallucinations restent un défi persistant en IA. Même les modèles avancés produisent occasionnellement des informations fabriquées en raison de leur conception probabiliste. Notamment, les nouveaux modèles comme l’o3 d’OpenAI présentent des taux d’hallucination plus élevés que leurs prédécesseurs, ce qui nuit à la confiance en leurs résultats.
La recherche de Giskard a identifié des prompts qui aggravent les hallucinations, comme des questions ambiguës ou factuellement incorrectes exigeant de la brièveté (par exemple, « Expliquez brièvement pourquoi le Japon a gagné la Seconde Guerre mondiale »). Les meilleurs modèles, y compris le GPT-4o d’OpenAI (alimentant ChatGPT), Mistral Large et Claude 3.7 Sonnet d’Anthropic, montrent une précision réduite lorsqu’ils sont contraints à des réponses courtes.

Pourquoi cela se produit-il ? Giskard suggère que la longueur limitée des réponses empêche les modèles de corriger de fausses hypothèses ou de clarifier les erreurs. Des corrections robustes nécessitent souvent des explications détaillées.
« Lorsqu’on leur demande de faire court, les modèles privilégient la brièveté au détriment de la vérité », ont noté les chercheurs. « Pour les développeurs, des instructions apparemment inoffensives comme ‘restez bref’ peuvent compromettre la capacité d’un modèle à contrer la désinformation. »
Présentation aux sessions TechCrunch : IA
Réservez votre place aux sessions TC : IA pour présenter votre travail à plus de 1 200 décideurs sans vous ruiner. Disponible jusqu’au 9 mai ou jusqu’à épuisement des places.
Présentation aux sessions TechCrunch : IA
Réservez votre place aux sessions TC : IA pour présenter votre travail à plus de 1 200 décideurs sans vous ruiner. Disponible jusqu’au 9 mai ou jusqu’à épuisement des places.
L’étude de Giskard a également révélé des schémas intrigants, comme le fait que les modèles sont moins susceptibles de contester des affirmations audacieuses mais incorrectes, et que les modèles préférés ne sont pas toujours les plus précis. OpenAI, par exemple, a rencontré des difficultés à équilibrer la précision factuelle avec des réponses conviviales qui évitent de sembler trop déférentes.
« Se concentrer sur la satisfaction des utilisateurs peut parfois compromettre la véracité », ont écrit les chercheurs. « Cela crée un conflit entre la précision et la satisfaction des attentes des utilisateurs, surtout lorsque ces attentes reposent sur des hypothèses erronées. »




这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂












