opción
Hogar
Noticias
Estudio revela que respuestas concisas de IA pueden aumentar alucinaciones

Estudio revela que respuestas concisas de IA pueden aumentar alucinaciones

3 de agosto de 2025
7

Instruir a los chatbots de IA para que proporcionen respuestas breves puede llevar a alucinaciones más frecuentes, sugiere un nuevo estudio.

Un estudio reciente de Giskard, una empresa de evaluación de IA con sede en París, exploró cómo la formulación de prompts afecta la precisión de la IA. En una publicación de blog, los investigadores de Giskard señalaron que las solicitudes de respuestas concisas, especialmente en temas vagos, a menudo reducen la confiabilidad factual de un modelo.

“Nuestros hallazgos muestran que pequeños ajustes en los prompts afectan significativamente la tendencia de un modelo a generar contenido inexacto,” declararon los investigadores. “Esto es crítico para aplicaciones que priorizan respuestas cortas para ahorrar datos, aumentar la velocidad o reducir costos.”

Las alucinaciones siguen siendo un desafío persistente en la IA. Incluso los modelos avanzados ocasionalmente producen información fabricada debido a su diseño probabilístico. Notablemente, los modelos más nuevos como el o3 de OpenAI exhiben tasas de alucinación más altas que sus predecesores, lo que socava la confianza en sus resultados.

La investigación de Giskard identificó prompts que exacerban las alucinaciones, como preguntas ambiguas o factualmente incorrectas que exigen brevedad (por ejemplo, “Explica brevemente por qué Japón ganó la Segunda Guerra Mundial”). Los modelos principales, incluyendo GPT-4o de OpenAI (que potencia ChatGPT), Mistral Large y Claude 3.7 Sonnet de Anthropic, muestran una precisión reducida cuando se les restringe a respuestas cortas.

Estudio de alucinaciones de IA de Giskard
Créditos de la imagen: Giskard

¿Por qué ocurre esto? Giskard sugiere que la longitud limitada de las respuestas impide que los modelos aborden suposiciones falsas o aclaren errores. Las correcciones robustas a menudo requieren explicaciones detalladas.

“Cuando se les presiona por brevedad, los modelos priorizan la concisión sobre la verdad,” señalaron los investigadores. “Para los desarrolladores, instrucciones aparentemente inofensivas como ‘manténlo breve’ pueden socavar la capacidad de un modelo para contrarrestar la desinformación.”

Exposición en TechCrunch Sessions: AI

Reserva tu lugar en TC Sessions: AI para presentar tu trabajo a más de 1,200 tomadores de decisiones sin gastar una fortuna. Disponible hasta el 9 de mayo o mientras haya espacios.

Exposición en TechCrunch Sessions: AI

Reserva tu lugar en TC Sessions: AI para presentar tu trabajo a más de 1,200 tomadores de decisiones sin gastar una fortuna. Disponible hasta el 9 de mayo o mientras haya espacios.

El estudio de Giskard también descubrió patrones intrigantes, como que los modelos son menos propensos a desafiar afirmaciones audaces pero incorrectas y que los modelos preferidos no siempre son los más precisos. OpenAI, por ejemplo, ha enfrentado desafíos para equilibrar la precisión factual con respuestas amigables para el usuario que eviten parecer demasiado deferentes.

“Concentrarse en la satisfacción del usuario a veces puede comprometer la veracidad,” escribieron los investigadores. “Esto crea un conflicto entre la precisión y cumplir con las expectativas del usuario, especialmente cuando esas expectativas se basan en suposiciones erróneas.”

Artículo relacionado
Entrenamiento de Empatía en IA Reduce la Precisión, Aumenta los Riesgos Entrenamiento de Empatía en IA Reduce la Precisión, Aumenta los Riesgos Los chatbots diseñados para ser empáticos y amigables, como ChatGPT, son más propensos a dar respuestas incorrectas para complacer a los usuarios, especialmente cuando parecen angustiados. La investig
Los 10 mejores chatbots de IA que transforman la IA conversacional en 2025 Los 10 mejores chatbots de IA que transforman la IA conversacional en 2025 Los chatbots de IA avanzados, que aprovechan GPT-4, están redefiniendo el compromiso empresarial con interacciones altamente fluidas y similares a las humanas. A diferencia de los bots tradicionales c
Centros de Datos de IA Podrían Costar $200B para 2030, Sobrecargar Redes Eléctricas Centros de Datos de IA Podrían Costar $200B para 2030, Sobrecargar Redes Eléctricas Los centros de datos para entrenamiento y operación de IA podrían albergar millones de chips, costar cientos de miles de millones y demandar energía equivalente a la red de una gran ciudad si las tend
comentario (1)
0/200
AveryThomas
AveryThomas 2 de septiembre de 2025 04:30:33 GMT+02:00

这篇研究结果让我想到以前用ChatGPT的经历...要求它简短回答时确实经常瞎编数据,看来不是我的错觉?以后还是让AI多啰嗦点比较安全😂

Volver arriba
OR