option
Maison
Nouvelles
Une étude révèle les difficultés rencontrées pour obtenir des conseils fiables en matière de santé de la part des chatbots

Une étude révèle les difficultés rencontrées pour obtenir des conseils fiables en matière de santé de la part des chatbots

10 octobre 2025
9

Une étude révèle les difficultés rencontrées pour obtenir des conseils fiables en matière de santé de la part des chatbots

Alors que les systèmes de santé sont confrontés à des temps d'attente prolongés et à une escalade des coûts, un nombre croissant de patients utilisent des chatbots d'IA tels que ChatGPT pour obtenir des conseils médicaux préliminaires. Des données récentes montrent qu'environ 17 % des adultes américains consultent ces outils pour obtenir des informations sur la santé chaque mois. Cependant, de nouvelles recherches suggèrent que cette pratique émergente comporte des risques importants, en particulier lorsque les utilisateurs ne fournissent pas un contexte adéquat ou interprètent mal les réponses de l'IA.

L'étude menée par Oxford a mis en évidence les limites critiques de l'efficacité de l'utilisation de l'IA conversationnelle pour l'auto-évaluation médicale. L'équipe de recherche a travaillé avec 1 300 participants britanniques en leur présentant des scénarios médicaux élaborés par des médecins. Les participants ont tenté d'établir un diagnostic à l'aide d'assistants d'IA ou de méthodes conventionnelles telles que les recherches sur Internet, et les résultats obtenus sur les différentes plateformes d'IA ont été mitigés.

"Nous avons observé une rupture de communication fondamentale dans les deux sens", explique Adam Mahdi, coauteur de l'étude à l'Oxford Internet Institute. "Les utilisateurs de l'IA n'ont pas démontré de meilleures capacités de prise de décision que ceux qui utilisent des approches traditionnelles - et dans certains cas, leurs performances ont été moins bonnes.

L'étude a testé trois grands modèles d'IA : GPT-4o d'OpenAI (qui alimente ChatGPT), Command R+ de Cohere et Llama 3 de Meta. Les résultats ont révélé deux tendances inquiétantes :

  • les participants utilisant des outils d'IA ont moins bien réussi à identifier les problèmes de santé pertinents
  • Les interactions avec l'IA ont conduit à une sous-estimation dangereuse de la gravité de l'état de santé.

M. Mahdi a constaté des problèmes importants en ce qui concerne la qualité des entrées et l'interprétation des sorties : "Les utilisateurs omettaient souvent des détails médicaux cruciaux lorsqu'ils formulaient des requêtes, tandis que les réponses de l'IA mélangeaient fréquemment des conseils précis et des suggestions problématiques." Cette combinaison a créé des scénarios particulièrement dangereux dans lesquels les utilisateurs pouvaient prendre des décisions inappropriées en matière de soins de santé.

La pression de l'industrie face à la réalité médicale

Ces résultats apparaissent alors que les grandes entreprises technologiques développent de manière agressive des applications d'IA axées sur la santé :

  • Apple serait en train de créer un conseiller en bien-être pour l'exercice physique et le sommeil
  • Amazon analyse les dossiers médicaux à la recherche d'indicateurs sociaux de santé
  • Microsoft développe des systèmes d'IA pour donner la priorité aux communications avec les patients.

Toutefois, la communauté médicale reste prudente quant au déploiement de ces technologies en milieu clinique. L'American Medical Association met explicitement en garde les médecins contre l'utilisation de chatbots grand public pour l'aide à la décision, un avertissement repris par les développeurs d'IA eux-mêmes. Les politiques d'utilisation d'Open AI interdisent spécifiquement l'utilisation de ses modèles à des fins de diagnostic.

"Nous conseillons vivement aux gens de consulter des sources médicales vérifiées plutôt que les résultats des chatbots pour prendre des décisions en matière de soins de santé", a souligné M. Mahdi. "Avant d'être déployés à grande échelle, ces systèmes doivent faire l'objet de tests rigoureux dans le monde réel, comparables aux essais pharmaceutiques."

Conclusion

Si les chatbots d'IA offrent des possibilités intéressantes pour rendre les soins de santé plus accessibles, cette recherche met en évidence des risques importants dans les mises en œuvre actuelles. À mesure que la technologie évolue, les développeurs doivent combler les lacunes critiques en matière de fiabilité, tandis que les utilisateurs doivent aborder les conseils médicaux de l'IA avec le scepticisme qui s'impose.

Article connexe
Amazon enrichit Q Business de nouveaux outils de création de chatbots pour les entreprises Amazon enrichit Q Business de nouveaux outils de création de chatbots pour les entreprises Amazon permet aux entreprises de développer des chatbots d'IA orientés vers le client à l'aide de sa plateforme Q Business, marquant ainsi une expansion stratégique de ses offres d'IA. L'entreprise a
Centres de données IA pourraient coûter 200 milliards de dollars d'ici 2030, mettant sous pression les réseaux électriques Centres de données IA pourraient coûter 200 milliards de dollars d'ici 2030, mettant sous pression les réseaux électriques Les centres de données pour l'entraînement et l'exploitation de l'IA pourraient bientôt abriter des millions de puces, coûter des centaines de milliards et exiger une puissance équivalente à celle du
Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations Demander aux chatbots d'IA de fournir des réponses brèves peut entraîner des hallucinations plus fréquentes, suggère une nouvelle étude.Une étude récente menée par Giskard, une entreprise d'évaluation
commentaires (0)
0/200
Retour en haut
OR