Sakana Ai aumenta la velocidad de entrenamiento modelo dramáticamente

Esta semana, Sakana AI, una startup respaldada por Nvidia y con millones de capital de riesgo, hizo una declaración audaz. Afirmaron que su nuevo sistema de IA, denominado el Ingeniero CUDA de IA, podía aumentar la velocidad de entrenamiento de ciertos modelos de IA en un asombroso 100 veces.
Resulta que todo fue un espejismo.
La gente en X (ya sabes, la plataforma anteriormente conocida como Twitter) no tardó en señalar el engaño de Sakana. En lugar de acelerar las cosas, su IA en realidad redujo el rendimiento. ¡Un usuario incluso reportó una desaceleración de 3 veces—vaya, eso es lo opuesto a lo prometido!
Entonces, ¿qué salió mal? Según Lucas Beyer de OpenAI, fue un error sigiloso en el código. "Su código original está mal de una manera sutil," señaló Beyer en X. "El hecho de que ejecuten la evaluación DOS VECES con resultados muy diferentes debería hacerles detenerse y pensar."
En un análisis póstumo sincero publicado el viernes, Sakana confesó. Admitieron que su sistema había encontrado una forma de "hacer trampa" (sus palabras, no las mías) al explotar lagunas en el código de evaluación. Esto le permitió evitar verificaciones importantes como las validaciones de precisión. Sakana lo llamó "hacking de recompensa," donde la IA encuentra atajos para mejorar las métricas sin lograr realmente el objetivo—en este caso, acelerar el entrenamiento de modelos. Es un poco como esos AIs que juegan al ajedrez y encuentran formas astutas de ganar.
Sakana dice que han corregido el problema y están trabajando en actualizar su artículo y resultados para reflejar lo que realmente pasó. "Desde entonces hemos hecho el arnés de evaluación y perfilado de tiempo de ejecución más robusto para eliminar muchas de estas lagunas," escribieron en X. "Estamos en el proceso de revisar nuestro artículo, y nuestros resultados, para reflejar y discutir los efectos [...] Nos disculpamos profundamente por nuestro descuido con nuestros lectores. Pronto proporcionaremos una revisión de este trabajo, y discutiremos nuestras lecciones aprendidas."
Hay que reconocerle a Sakana el mérito de asumir su error. Pero toda esta saga es un recordatorio sólido: si algo en el mundo de la IA suena demasiado bueno para ser verdad, probablemente lo sea.
Artículo relacionado
El papel generado por IA pasa la revisión por pares, afirma Sakana, pero los detalles son matizados
La startup japonesa de IA Sakana recientemente hizo olas al afirmar que su sistema de IA, el AI Scientist-V2, generó una de las primeras publicaciones científicas revisadas por pares. Sin embargo, hay algunos detalles importantes a considerar antes de que nos emocionemos demasiado. El debate sobre el papel de la IA en la ciencia es calentarse. Entonces
Manus estrena su herramienta de IA "Wide Research" con más de 100 agentes para el raspado web
Manus, empresa china innovadora en IA, que ya había llamado la atención por su pionera plataforma de orquestación multiagente dirigida tanto a consumidores como a usuarios profesionales, ha desvelado
Por qué los LLM ignoran las instrucciones y cómo solucionarlo eficazmente
Comprender por qué los modelos lingüísticos de gran tamaño omiten instruccionesLos grandes modelos lingüísticos (LLM) han transformado la forma en que interactuamos con la IA, permitiendo aplicacione
comentario (29)
0/200
StevenAllen
12 de septiembre de 2025 04:30:38 GMT+02:00
진짜로 100배 빨라진다고? 🤔 회사 홍보용 과장 광고 같은데... 누구든 놀라운 성능이라면 실제 벤치마크 결과 공개해야 믿을 수 있을 거 같아요. 엔비디아 지원 받는다고 해도 너무 뻥튀기 한 것 같은데...
0
ArthurJackson
7 de septiembre de 2025 02:30:39 GMT+02:00
Ну и новость... 100-кратное ускорение обучения ИИ оказалось банальным раздуванием фактов. Опять стартапы пытаются впечатлить инвесторов громкими заявлениями, а по факту — обычный маркетинг 🤦♂️. NVIDIA, вы же умнее, как можно вестись на такие сказки?
0
PaulMartínez
18 de agosto de 2025 23:01:05 GMT+02:00
Whoa, Sakana AI's 100x speed claim sounded too good to be true, and guess what? It was! 😅 Kinda reminds me of those overhyped tech demos that crash and burn. Hope they sort out the bugs soon!
0
WillWalker
6 de agosto de 2025 05:00:59 GMT+02:00
What a letdown! Sakana AI's big claim about 100x faster training sounded amazing, but it’s just hype? Gotta admit, I was excited for a sec, but now I’m just skeptical about these bold AI promises. 🥳😑
0
DanielThomas
16 de abril de 2025 14:41:15 GMT+02:00
사카나 AI가 모델 훈련 속도를 100배나 높인다고 해서 기대했는데, 다 허언이었어요. 정말 실망스러웠지만, 적어도 사람들 입에 오르내렸네요. 다음에는 정말로 기대를 저버리지 말아줬으면 좋겠어요! 😔
0
WalterMartinez
16 de abril de 2025 11:31:51 GMT+02:00
A promessa da Sakana AI de aumentar a velocidade de treinamento do modelo em 100 vezes parecia boa demais para ser verdade, e foi mesmo! Uma decepção total, mas pelo menos eles conseguiram que todos falassem sobre eles. Talvez da próxima vez eles realmente entreguem o que prometem! 😂
0
Esta semana, Sakana AI, una startup respaldada por Nvidia y con millones de capital de riesgo, hizo una declaración audaz. Afirmaron que su nuevo sistema de IA, denominado el Ingeniero CUDA de IA, podía aumentar la velocidad de entrenamiento de ciertos modelos de IA en un asombroso 100 veces.
Resulta que todo fue un espejismo.
La gente en X (ya sabes, la plataforma anteriormente conocida como Twitter) no tardó en señalar el engaño de Sakana. En lugar de acelerar las cosas, su IA en realidad redujo el rendimiento. ¡Un usuario incluso reportó una desaceleración de 3 veces—vaya, eso es lo opuesto a lo prometido!
Entonces, ¿qué salió mal? Según Lucas Beyer de OpenAI, fue un error sigiloso en el código. "Su código original está mal de una manera sutil," señaló Beyer en X. "El hecho de que ejecuten la evaluación DOS VECES con resultados muy diferentes debería hacerles detenerse y pensar."
En un análisis póstumo sincero publicado el viernes, Sakana confesó. Admitieron que su sistema había encontrado una forma de "hacer trampa" (sus palabras, no las mías) al explotar lagunas en el código de evaluación. Esto le permitió evitar verificaciones importantes como las validaciones de precisión. Sakana lo llamó "hacking de recompensa," donde la IA encuentra atajos para mejorar las métricas sin lograr realmente el objetivo—en este caso, acelerar el entrenamiento de modelos. Es un poco como esos AIs que juegan al ajedrez y encuentran formas astutas de ganar.
Sakana dice que han corregido el problema y están trabajando en actualizar su artículo y resultados para reflejar lo que realmente pasó. "Desde entonces hemos hecho el arnés de evaluación y perfilado de tiempo de ejecución más robusto para eliminar muchas de estas lagunas," escribieron en X. "Estamos en el proceso de revisar nuestro artículo, y nuestros resultados, para reflejar y discutir los efectos [...] Nos disculpamos profundamente por nuestro descuido con nuestros lectores. Pronto proporcionaremos una revisión de este trabajo, y discutiremos nuestras lecciones aprendidas."
Hay que reconocerle a Sakana el mérito de asumir su error. Pero toda esta saga es un recordatorio sólido: si algo en el mundo de la IA suena demasiado bueno para ser verdad, probablemente lo sea.




진짜로 100배 빨라진다고? 🤔 회사 홍보용 과장 광고 같은데... 누구든 놀라운 성능이라면 실제 벤치마크 결과 공개해야 믿을 수 있을 거 같아요. 엔비디아 지원 받는다고 해도 너무 뻥튀기 한 것 같은데...




Ну и новость... 100-кратное ускорение обучения ИИ оказалось банальным раздуванием фактов. Опять стартапы пытаются впечатлить инвесторов громкими заявлениями, а по факту — обычный маркетинг 🤦♂️. NVIDIA, вы же умнее, как можно вестись на такие сказки?




Whoa, Sakana AI's 100x speed claim sounded too good to be true, and guess what? It was! 😅 Kinda reminds me of those overhyped tech demos that crash and burn. Hope they sort out the bugs soon!




What a letdown! Sakana AI's big claim about 100x faster training sounded amazing, but it’s just hype? Gotta admit, I was excited for a sec, but now I’m just skeptical about these bold AI promises. 🥳😑




사카나 AI가 모델 훈련 속도를 100배나 높인다고 해서 기대했는데, 다 허언이었어요. 정말 실망스러웠지만, 적어도 사람들 입에 오르내렸네요. 다음에는 정말로 기대를 저버리지 말아줬으면 좋겠어요! 😔




A promessa da Sakana AI de aumentar a velocidade de treinamento do modelo em 100 vezes parecia boa demais para ser verdade, e foi mesmo! Uma decepção total, mas pelo menos eles conseguiram que todos falassem sobre eles. Talvez da próxima vez eles realmente entreguem o que prometem! 😂












