opción
Hogar
Noticias
Un estudio de Microsoft revela que más tokens de IA aumentan los errores de razonamiento

Un estudio de Microsoft revela que más tokens de IA aumentan los errores de razonamiento

29 de septiembre de 2025
1

Nuevos conocimientos sobre la eficacia del razonamiento LLM

Una nueva investigación de Microsoft demuestra que las técnicas avanzadas de razonamiento de los grandes modelos lingüísticos no producen mejoras uniformes en los distintos sistemas de IA. Su innovador estudio analizó cómo respondían nueve de los principales modelos básicos a varios enfoques de escalado durante la inferencia.

Evaluación de los métodos de escalado del tiempo de inferencia

El equipo de investigación aplicó una rigurosa metodología de pruebas en tres técnicas de escalado distintas:

  • La inducción tradicional de la cadena de pensamiento
  • Generación paralela de respuestas con agregación
  • Refinamiento secuencial mediante bucles de retroalimentación
Marco experimental para evaluar el rendimiento del razonamiento

Ocho evaluaciones comparativas exhaustivas proporcionaron escenarios de prueba desafiantes en disciplinas como las matemáticas, el razonamiento científico, la resolución de problemas complejos y el análisis espacial. Varias evaluaciones presentaban niveles de dificultad graduados para examinar cómo se escala el rendimiento con la complejidad del problema.

Descubrimientos clave sobre el rendimiento en razonamiento

La exhaustiva evaluación arrojó varios datos fundamentales para los profesionales de la IA:

  • El aumento del rendimiento de las técnicas de escalado varía drásticamente según la arquitectura del modelo y el ámbito de la tarea.
  • Las respuestas más largas no se correlacionan sistemáticamente con mejores soluciones.
  • Los costes de cálculo fluctúan de forma impredecible incluso para consultas idénticas.
  • En ocasiones, los modelos tradicionales pueden igualar a los modelos de razonamiento especializados mediante un amplio escalado.
  • Los mecanismos de verificación son prometedores para mejorar la eficiencia
Rendimiento frente a coste computacional en distintos modelos y tareas

Implicaciones prácticas para el desarrollo de la IA

Estas conclusiones tienen importantes implicaciones para la aplicación de la IA en las empresas:

La previsibilidad de los costes se perfila como un reto importante, ya que el uso de tokens muestra una gran variabilidad incluso para las respuestas correctas. "Los desarrolladores necesitan modelos con patrones de cálculo coherentes", señala Besmira Nushi, investigadora de Microsoft.

La investigación también identifica la longitud de la respuesta como un indicador potencial de la confianza del modelo, ya que las respuestas excesivamente largas suelen indicar soluciones incorrectas más allá de ciertos umbrales.

Patrones de escalado de inferencias en el rendimiento de GPT-4o

El futuro de los sistemas de razonamiento eficientes

El estudio destaca varias direcciones prometedoras para el desarrollo futuro:

"Los mecanismos de verificación podrían transformar nuestra forma de abordar los problemas de razonamiento", explica Nushi, y sugiere que los sistemas de validación empresarial existentes podrían adaptarse a las aplicaciones de IA. Esta integración permitiría a las interfaces de lenguaje natural aprovechar la lógica de validación especializada.

La investigación subraya la creciente necesidad de soluciones que equilibren la precisión del razonamiento con unos costes computacionales predecibles a medida que los sistemas de IA asumen tareas cada vez más complejas en el mundo real.

Artículo relacionado
Por qué los LLM ignoran las instrucciones y cómo solucionarlo eficazmente Por qué los LLM ignoran las instrucciones y cómo solucionarlo eficazmente Comprender por qué los modelos lingüísticos de gran tamaño omiten instruccionesLos grandes modelos lingüísticos (LLM) han transformado la forma en que interactuamos con la IA, permitiendo aplicacione
La aplicación Gemini de Google añade vídeo con IA en tiempo real, Deep Research y nuevas funciones (120 caracteres) La aplicación Gemini de Google añade vídeo con IA en tiempo real, Deep Research y nuevas funciones (120 caracteres) Google desveló importantes mejoras de Gemini AI durante su conferencia para desarrolladores I/O 2025, ampliando las capacidades multimodales, introduciendo modelos de AI de nueva generación y reforzan
Google Cloud impulsa grandes avances en la investigación y el descubrimiento científicos Google Cloud impulsa grandes avances en la investigación y el descubrimiento científicos La revolución digital está transformando las metodologías científicas gracias a unas capacidades computacionales sin precedentes. Las tecnologías de vanguardia aumentan ahora tanto los marcos teóricos
comentario (0)
0/200
Volver arriba
OR