Les chatbots déforment les nouvelles, impactant même les utilisateurs payés

Pourquoi cela importe-t-il ? Si les chatbots ne peuvent même pas récupérer les actualités aussi efficacement que Google, il est difficile de leur faire confiance pour interpréter et citer ces actualités avec précision. Cela rend le contenu de leurs réponses, même lorsqu'elles sont liées, beaucoup moins fiable.
Réponses erronées données avec assurance
Les chercheurs ont noté que les chatbots donnaient des réponses incorrectes avec une "confiance alarmante", qualifiant rarement leurs résultats ou admettant des lacunes dans leurs connaissances. ChatGPT, par exemple, "n'a jamais refusé de fournir une réponse", bien que 134 de ses 200 réponses soient incorrectes. Parmi les huit outils, Copilot était le seul à refuser de répondre à plus de requêtes qu'il n'en traitait.
"Tous les outils étaient systématiquement plus susceptibles de fournir une réponse incorrecte que de reconnaître leurs limites", a précisé le rapport.
Les versions payantes ne sont pas plus fiables
Même les modèles premium comme Grok-3 Search et Perplexity Pro, bien que plus précis que leurs homologues gratuits, donnaient encore des réponses erronées avec assurance. Cela soulève des questions sur la valeur de leurs coûts d'abonnement souvent élevés.
"Cette contradiction provient principalement de la tendance [des bots] à fournir des réponses définitives, mais erronées, plutôt que de refuser de répondre directement à la question", explique le rapport. "La préoccupation fondamentale va au-delà des erreurs factuelles des chatbots pour inclure leur ton conversationnel autoritaire, qui peut rendre difficile pour les utilisateurs de distinguer les informations précises des informations inexactes."
"Cette confiance non méritée présente aux utilisateurs une illusion potentiellement dangereuse de fiabilité et de précision", a ajouté le rapport.
Fabrication de liens
Les modèles d'IA sont connus pour halluciner, mais l'étude Tow a révélé que Gemini et Grok 3 le faisaient le plus fréquemment, plus de la moitié du temps. "Même lorsque Grok identifiait correctement un article, il reliait souvent à une URL fabriquée", a noté le rapport, ce qui signifie que Grok pouvait trouver le bon titre et l'éditeur, mais ensuite fabriquer le lien de l'article lui-même.
Une analyse des données de trafic de Comscore par Generative AI in the Newsroom, une initiative de l'Université Northwestern, a confirmé ce schéma. Leur étude de juillet à novembre 2024 a montré que ChatGPT avait généré 205 URL rompues dans ses réponses. Bien que les publications retirent occasionnellement des articles, ce qui peut entraîner des erreurs 404, les chercheurs ont noté que l'absence de données archivées suggérait que "le modèle a halluciné des liens plausibles vers des organes de presse autoritaires en répondant aux requêtes des utilisateurs."
Étant donné l'adoption croissante des moteurs de recherche d'IA — Google est tombé en dessous de 90 % de part de marché au quatrième trimestre de 2024 pour la première fois en 10 ans — ces résultats sont préoccupants. La société a également lancé le mode IA pour certains utilisateurs la semaine dernière, remplaçant sa recherche normale par un chatbot malgré l'impopularité généralisée de ses AI Overviews.
Avec environ 400 millions d'utilisateurs affluant vers ChatGPT chaque semaine, l'inexactitude et la distorsion de ses citations font de lui et d'autres outils d'IA populaires des moteurs potentiels de désinformation, même lorsqu'ils extraient du contenu de sites d'actualités rigoureusement vérifiés.
Le rapport Tow a conclu que les outils d'IA attribuant incorrectement des sources ou représentant mal leur travail pourraient nuire à la réputation des éditeurs.
Ignorer les crawlers bloqués
La situation s'aggrave pour les éditeurs, car le rapport Tow a constaté que plusieurs chatbots pouvaient encore récupérer des articles d'éditeurs qui avaient bloqué leurs crawlers en utilisant le Protocole d'Exclusion des Robots (REP), ou robots.txt. Paradoxalement, cependant, les chatbots n'ont pas réussi à répondre correctement aux requêtes concernant les sites qui leur permettent d'accéder à leur contenu.
"Perplexity Pro était le pire contrevenant à cet égard, identifiant correctement près d'un tiers des quatre-vingt-dix extraits d'articles auxquels il n'aurait pas dû avoir accès", indique le rapport.
Cela suggère que non seulement les entreprises d'IA continuent d'ignorer le REP — comme Perplexity et d'autres ont été surprises à le faire l'année dernière — mais que les éditeurs ayant un quelconque accord de licence avec eux ne sont pas garantis d'être correctement cités.
Le rapport de Columbia n'est qu'un symptôme d'un problème plus large. Le rapport Generative AI in the Newsroom a également découvert que les chatbots dirigent rarement le trafic vers les sites d'actualités dont ils extraient des informations, ce que d'autres rapports confirment. De juillet à novembre 2024, Perplexity a transmis 7 % des références aux sites d'actualités, tandis que ChatGPT n'en a transmis que 3 %. En comparaison, les outils d'IA avaient tendance à favoriser les ressources éducatives comme Scribd.com, Coursera, et celles liées aux universités, envoyant jusqu'à 30 % du trafic dans leur direction.
En fin de compte : le journalisme original reste une source d'actualités plus fiable que ce que les outils d'IA régurgitent. Vérifiez toujours les liens avant d'accepter ce qu'ils vous disent comme un fait, et utilisez vos compétences en pensée critique et en littératie médiatique pour évaluer les réponses.
Article connexe
Ancien ingénieur d'OpenAI partage des idées sur la culture d'entreprise et la croissance rapide
Il y a trois semaines, Calvin French-Owen, un ingénieur qui a contribué à un produit clé d'OpenAI, a quitté l'entreprise.Il a récemment partagé un article de blog captivant détaillant son année chez O
Translation alimentée par l'IA améliore la communication commerciale mondiale
Dans le monde interconnecté d'aujourd'hui, une communication multilingue fluide est essentielle pour réussir. DeepL mène la charge, en exploitant une intelligence artificielle de pointe pour rationali
Technologie juridique IA : Approche d'iLevel.ai pour la précision et la fiabilité
Le secteur juridique se transforme avec l'intégration de l'intelligence artificielle (IA). Des plateformes comme iLevel.ai visent à soutenir les professionnels du droit, mais des préoccupations concer
commentaires (50)
0/200
GaryWalker
24 avril 2025 04:12:13 UTC+02:00
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
20 avril 2025 17:53:48 UTC+02:00
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
16 avril 2025 11:13:53 UTC+02:00
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
16 avril 2025 10:05:47 UTC+02:00
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
15 avril 2025 09:18:40 UTC+02:00
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
DonaldLee
14 avril 2025 23:25:02 UTC+02:00
I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?
0
Pourquoi cela importe-t-il ? Si les chatbots ne peuvent même pas récupérer les actualités aussi efficacement que Google, il est difficile de leur faire confiance pour interpréter et citer ces actualités avec précision. Cela rend le contenu de leurs réponses, même lorsqu'elles sont liées, beaucoup moins fiable.
Réponses erronées données avec assurance
Les chercheurs ont noté que les chatbots donnaient des réponses incorrectes avec une "confiance alarmante", qualifiant rarement leurs résultats ou admettant des lacunes dans leurs connaissances. ChatGPT, par exemple, "n'a jamais refusé de fournir une réponse", bien que 134 de ses 200 réponses soient incorrectes. Parmi les huit outils, Copilot était le seul à refuser de répondre à plus de requêtes qu'il n'en traitait.
"Tous les outils étaient systématiquement plus susceptibles de fournir une réponse incorrecte que de reconnaître leurs limites", a précisé le rapport.
Les versions payantes ne sont pas plus fiables
Même les modèles premium comme Grok-3 Search et Perplexity Pro, bien que plus précis que leurs homologues gratuits, donnaient encore des réponses erronées avec assurance. Cela soulève des questions sur la valeur de leurs coûts d'abonnement souvent élevés.
"Cette contradiction provient principalement de la tendance [des bots] à fournir des réponses définitives, mais erronées, plutôt que de refuser de répondre directement à la question", explique le rapport. "La préoccupation fondamentale va au-delà des erreurs factuelles des chatbots pour inclure leur ton conversationnel autoritaire, qui peut rendre difficile pour les utilisateurs de distinguer les informations précises des informations inexactes."
"Cette confiance non méritée présente aux utilisateurs une illusion potentiellement dangereuse de fiabilité et de précision", a ajouté le rapport.
Fabrication de liens
Les modèles d'IA sont connus pour halluciner, mais l'étude Tow a révélé que Gemini et Grok 3 le faisaient le plus fréquemment, plus de la moitié du temps. "Même lorsque Grok identifiait correctement un article, il reliait souvent à une URL fabriquée", a noté le rapport, ce qui signifie que Grok pouvait trouver le bon titre et l'éditeur, mais ensuite fabriquer le lien de l'article lui-même.
Une analyse des données de trafic de Comscore par Generative AI in the Newsroom, une initiative de l'Université Northwestern, a confirmé ce schéma. Leur étude de juillet à novembre 2024 a montré que ChatGPT avait généré 205 URL rompues dans ses réponses. Bien que les publications retirent occasionnellement des articles, ce qui peut entraîner des erreurs 404, les chercheurs ont noté que l'absence de données archivées suggérait que "le modèle a halluciné des liens plausibles vers des organes de presse autoritaires en répondant aux requêtes des utilisateurs."
Étant donné l'adoption croissante des moteurs de recherche d'IA — Google est tombé en dessous de 90 % de part de marché au quatrième trimestre de 2024 pour la première fois en 10 ans — ces résultats sont préoccupants. La société a également lancé le mode IA pour certains utilisateurs la semaine dernière, remplaçant sa recherche normale par un chatbot malgré l'impopularité généralisée de ses AI Overviews.
Avec environ 400 millions d'utilisateurs affluant vers ChatGPT chaque semaine, l'inexactitude et la distorsion de ses citations font de lui et d'autres outils d'IA populaires des moteurs potentiels de désinformation, même lorsqu'ils extraient du contenu de sites d'actualités rigoureusement vérifiés.
Le rapport Tow a conclu que les outils d'IA attribuant incorrectement des sources ou représentant mal leur travail pourraient nuire à la réputation des éditeurs.
Ignorer les crawlers bloqués
La situation s'aggrave pour les éditeurs, car le rapport Tow a constaté que plusieurs chatbots pouvaient encore récupérer des articles d'éditeurs qui avaient bloqué leurs crawlers en utilisant le Protocole d'Exclusion des Robots (REP), ou robots.txt. Paradoxalement, cependant, les chatbots n'ont pas réussi à répondre correctement aux requêtes concernant les sites qui leur permettent d'accéder à leur contenu.
"Perplexity Pro était le pire contrevenant à cet égard, identifiant correctement près d'un tiers des quatre-vingt-dix extraits d'articles auxquels il n'aurait pas dû avoir accès", indique le rapport.
Cela suggère que non seulement les entreprises d'IA continuent d'ignorer le REP — comme Perplexity et d'autres ont été surprises à le faire l'année dernière — mais que les éditeurs ayant un quelconque accord de licence avec eux ne sont pas garantis d'être correctement cités.
Le rapport de Columbia n'est qu'un symptôme d'un problème plus large. Le rapport Generative AI in the Newsroom a également découvert que les chatbots dirigent rarement le trafic vers les sites d'actualités dont ils extraient des informations, ce que d'autres rapports confirment. De juillet à novembre 2024, Perplexity a transmis 7 % des références aux sites d'actualités, tandis que ChatGPT n'en a transmis que 3 %. En comparaison, les outils d'IA avaient tendance à favoriser les ressources éducatives comme Scribd.com, Coursera, et celles liées aux universités, envoyant jusqu'à 30 % du trafic dans leur direction.
En fin de compte : le journalisme original reste une source d'actualités plus fiable que ce que les outils d'IA régurgitent. Vérifiez toujours les liens avant d'accepter ce qu'ils vous disent comme un fait, et utilisez vos compétences en pensée critique et en littératie médiatique pour évaluer les réponses.




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓




I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?












