Un estudio revela las dificultades para obtener asesoramiento sanitario fiable de los chatbots

Mientras los sistemas sanitarios luchan contra los largos tiempos de espera y los costes crecientes, un número cada vez mayor de pacientes experimenta con chatbots de IA como ChatGPT para obtener asesoramiento médico preliminar. Datos recientes muestran que aproximadamente el 17% de los adultos estadounidenses consultan estas herramientas para obtener información sanitaria cada mes. Sin embargo, una nueva investigación sugiere que esta práctica emergente conlleva riesgos significativos, especialmente cuando los usuarios no proporcionan el contexto adecuado o malinterpretan las respuestas de la IA.
El estudio dirigido por Oxford puso de manifiesto limitaciones críticas en la eficacia con que las personas utilizan la IA conversacional para la autoevaluación médica. El equipo de investigación trabajó con 1.300 participantes del Reino Unido y les presentó escenarios médicos desarrollados por médicos. Los participantes intentaron el diagnóstico utilizando asistentes de IA o métodos convencionales como búsquedas en Internet, con resultados preocupantes en múltiples plataformas de IA.
"Observamos una desconexión fundamental en la comunicación en ambas direcciones", explica Adam Mahdi, coautor del estudio en el Oxford Internet Institute. "Los usuarios de IA no demostraron mejores capacidades de toma de decisiones que los que empleaban enfoques tradicionales, y en algunos casos obtuvieron peores resultados".
El estudio probó tres de los principales modelos de IA: GPT-4o de OpenAI (que alimenta ChatGPT), Command R+ de Cohere y Llama 3 de Meta. Los resultados revelaron dos patrones preocupantes:
- Los participantes que utilizaron herramientas de IA tuvieron menos éxito a la hora de identificar problemas de salud relevantes.
- Las interacciones con IA llevaron a una peligrosa subestimación de la gravedad de las enfermedades.
Mahdi observó problemas importantes con la calidad de la información y la interpretación de los resultados: "Los usuarios omitían a menudo detalles médicos cruciales al formular las consultas, mientras que las respuestas de la IA mezclaban con frecuencia consejos precisos con sugerencias problemáticas". Esta combinación creaba situaciones especialmente peligrosas en las que los usuarios podían tomar decisiones sanitarias inadecuadas.
El empuje de la industria frente a la realidad médica
Estas conclusiones surgen en un momento en que las principales empresas tecnológicas están desarrollando agresivamente aplicaciones de IA centradas en la salud:
- Apple está creando un asesor de bienestar para orientar sobre el ejercicio y el sueño.
- Amazon analiza los historiales médicos en busca de indicadores de salud social.
- Microsoft está desarrollando sistemas de IA para priorizar las comunicaciones con los pacientes.
Sin embargo, la comunidad médica sigue siendo cautelosa a la hora de implantar estas tecnologías en entornos clínicos. La Asociación Médica Estadounidense advierte explícitamente a los médicos contra el uso de chatbots de consumo como apoyo a la toma de decisiones, una advertencia de la que se hacen eco los propios desarrolladores de IA. Las políticas de uso de Open AI prohíben específicamente emplear sus modelos con fines de diagnóstico.
"Aconsejamos encarecidamente a la gente que consulte fuentes médicas verificadas en lugar de los resultados de los chatbots para tomar decisiones sanitarias", subraya Mahdi. "Antes de un amplio despliegue, estos sistemas necesitan pruebas rigurosas en el mundo real comparables a los ensayos farmacéuticos".
Conclusión
Aunque los chatbots de IA ofrecen interesantes posibilidades para hacer más accesible la asistencia sanitaria, esta investigación pone de manifiesto riesgos sustanciales en las implementaciones actuales. A medida que la tecnología evoluciona, los desarrolladores deben abordar las brechas críticas en la fiabilidad, mientras que los usuarios deben abordar el asesoramiento médico de IA con el escepticismo apropiado.
Artículo relacionado
Amazon mejora Q Business con nuevas herramientas de creación de chatbot para empresas
Amazon permite a las empresas desarrollar chatbots de IA orientados al cliente mediante su plataforma Q Business, lo que supone una ampliación estratégica de su oferta de IA. La compañía ha revelado e
Centros de Datos de IA Podrían Costar $200B para 2030, Sobrecargar Redes Eléctricas
Los centros de datos para entrenamiento y operación de IA podrían albergar millones de chips, costar cientos de miles de millones y demandar energía equivalente a la red de una gran ciudad si las tend
Estudio revela que respuestas concisas de IA pueden aumentar alucinaciones
Instruir a los chatbots de IA para que proporcionen respuestas breves puede llevar a alucinaciones más frecuentes, sugiere un nuevo estudio.Un estudio reciente de Giskard, una empresa de evaluación de
comentario (0)
0/200
Mientras los sistemas sanitarios luchan contra los largos tiempos de espera y los costes crecientes, un número cada vez mayor de pacientes experimenta con chatbots de IA como ChatGPT para obtener asesoramiento médico preliminar. Datos recientes muestran que aproximadamente el 17% de los adultos estadounidenses consultan estas herramientas para obtener información sanitaria cada mes. Sin embargo, una nueva investigación sugiere que esta práctica emergente conlleva riesgos significativos, especialmente cuando los usuarios no proporcionan el contexto adecuado o malinterpretan las respuestas de la IA.
El estudio dirigido por Oxford puso de manifiesto limitaciones críticas en la eficacia con que las personas utilizan la IA conversacional para la autoevaluación médica. El equipo de investigación trabajó con 1.300 participantes del Reino Unido y les presentó escenarios médicos desarrollados por médicos. Los participantes intentaron el diagnóstico utilizando asistentes de IA o métodos convencionales como búsquedas en Internet, con resultados preocupantes en múltiples plataformas de IA.
"Observamos una desconexión fundamental en la comunicación en ambas direcciones", explica Adam Mahdi, coautor del estudio en el Oxford Internet Institute. "Los usuarios de IA no demostraron mejores capacidades de toma de decisiones que los que empleaban enfoques tradicionales, y en algunos casos obtuvieron peores resultados".
El estudio probó tres de los principales modelos de IA: GPT-4o de OpenAI (que alimenta ChatGPT), Command R+ de Cohere y Llama 3 de Meta. Los resultados revelaron dos patrones preocupantes:
- Los participantes que utilizaron herramientas de IA tuvieron menos éxito a la hora de identificar problemas de salud relevantes.
- Las interacciones con IA llevaron a una peligrosa subestimación de la gravedad de las enfermedades.
Mahdi observó problemas importantes con la calidad de la información y la interpretación de los resultados: "Los usuarios omitían a menudo detalles médicos cruciales al formular las consultas, mientras que las respuestas de la IA mezclaban con frecuencia consejos precisos con sugerencias problemáticas". Esta combinación creaba situaciones especialmente peligrosas en las que los usuarios podían tomar decisiones sanitarias inadecuadas.
El empuje de la industria frente a la realidad médica
Estas conclusiones surgen en un momento en que las principales empresas tecnológicas están desarrollando agresivamente aplicaciones de IA centradas en la salud:
- Apple está creando un asesor de bienestar para orientar sobre el ejercicio y el sueño.
- Amazon analiza los historiales médicos en busca de indicadores de salud social.
- Microsoft está desarrollando sistemas de IA para priorizar las comunicaciones con los pacientes.
Sin embargo, la comunidad médica sigue siendo cautelosa a la hora de implantar estas tecnologías en entornos clínicos. La Asociación Médica Estadounidense advierte explícitamente a los médicos contra el uso de chatbots de consumo como apoyo a la toma de decisiones, una advertencia de la que se hacen eco los propios desarrolladores de IA. Las políticas de uso de Open AI prohíben específicamente emplear sus modelos con fines de diagnóstico.
"Aconsejamos encarecidamente a la gente que consulte fuentes médicas verificadas en lugar de los resultados de los chatbots para tomar decisiones sanitarias", subraya Mahdi. "Antes de un amplio despliegue, estos sistemas necesitan pruebas rigurosas en el mundo real comparables a los ensayos farmacéuticos".
Conclusión
Aunque los chatbots de IA ofrecen interesantes posibilidades para hacer más accesible la asistencia sanitaria, esta investigación pone de manifiesto riesgos sustanciales en las implementaciones actuales. A medida que la tecnología evoluciona, los desarrolladores deben abordar las brechas críticas en la fiabilidad, mientras que los usuarios deben abordar el asesoramiento médico de IA con el escepticismo apropiado.












