opción
Hogar
Noticias
Avance de escala de IA cuestionado por expertos

Avance de escala de IA cuestionado por expertos

10 de abril de 2025
96

Avance de escala de IA cuestionado por expertos

Ha habido un zumbido en las redes sociales sobre los investigadores que descubren una nueva "ley de escala" de la IA, pero los expertos lo están tomando con un grano de sal. Las leyes de escala de IA, que se parecen más a las pautas informales, muestran cómo los modelos de IA mejoran a medida que les arroja más datos y potencia informática. Hasta hace aproximadamente un año, la gran tendencia se trataba de "pre-entrenamiento", básicamente, capacitar modelos más grandes en conjuntos de datos más grandes. Eso sigue siendo una cosa, pero ahora tenemos dos leyes de escala más en la mezcla: escalamiento posterior al entrenamiento, que se trata de ajustar el comportamiento de un modelo y la escala de tiempo de prueba, lo que implica el uso de más potencia informática durante la inferencia para aumentar las capacidades de "razonamiento" de un modelo (piense en modelos como R1). Recientemente, los investigadores de Google y UC Berkeley dejaron un artículo que algunas personas en línea están llamando a una cuarta ley: "Búsqueda de tiempo de inferencia". Este método tiene el modelo escupir un montón de respuestas posibles a una consulta al mismo tiempo y luego elegir la mejor. Los investigadores afirman que puede aumentar el rendimiento de un modelo más antiguo, como Gemini 1.5 Pro de Google, para vencer al modelo de "razonamiento" de previsión O1 de OpenAI en puntos de referencia de ciencias y matemáticas. Eric Zhao, miembro del Doctorado de Google y uno de los coautores del documento, compartió en X que simplemente muestreando al azar 200 respuestas y dejando que el modelo se autoverifique, Gemini 1.5, que en broma llamó un "antiguo modelo a principios de 2024", podría superar a O1 previa e incluso llegar a O1. Señaló que la autoverificación se vuelve más fácil a medida que se escala, lo cual es un poco contradictorio pero genial. Pero no todos están convencidos. Matthew Guzdial, investigador de IA y profesor asistente en la Universidad de Alberta, le dijo a TechCrunch que este enfoque funciona mejor cuando tiene una forma sólida de juzgar las respuestas. Sin embargo, la mayoría de las preguntas no son tan sencillas. Él dijo: "Si no podemos escribir código para definir lo que queremos, no podemos usar la búsqueda [de tiempo de inferencia]. Para algo como la interacción del idioma general, no podemos hacer esto ... generalmente no es un gran enfoque para resolver la mayoría de los problemas". Zhao respondió, diciendo que su artículo realmente analiza los casos en los que no tiene una forma clara de juzgar las respuestas, y el modelo tiene que resolverlo por sí solo. Argumentó que la brecha entre tener una forma clara de juzgar y no tener uno puede reducirse a medida que se escala. Mike Cook, miembro de la investigación del King's College London, respaldó la opinión de Guzdial, diciendo que la búsqueda de tiempo de inferencia realmente no mejora el razonamiento del modelo. Es más como una solución para la tendencia del modelo a cometer errores de confianza. Señaló que si su modelo arruina el 5% del tiempo, verificar 200 intentos debería hacer que esos errores sean más fáciles de detectar. Esta noticia podría ser un poco decepcionante para la industria de la IA, que siempre está buscando formas de impulsar el "razonamiento" del modelo sin romper el banco. Como señalaron los autores del artículo, los modelos de razonamiento pueden acumular miles de dólares en costos informáticos solo para resolver un problema de matemáticas. Parece que la búsqueda de nuevas técnicas de escala está lejos de terminar. *Actualizado 20/20 5:12 AM Pacífico: Comentarios agregados del coautor del estudio Eric Zhao, quien está en desacuerdo con una evaluación de un investigador independiente que criticó el trabajo.*
Artículo relacionado
專注於實惠增強現實的真實對焦系統 專注於實惠增強現實的真實對焦系統 顛覆基於投影的增強現實技術來自著名機構電機電子工程師學會(IEEE)的研究人員在基於投影的增強現實領域取得了突破性的進展。他們的解決方案?配備了電控可變焦鏡片(ETL)的特殊眼鏡,這些鏡片模擬人類眼睛自然感知深度的方式。這種創新的方法解決了使投影系統在受控環境中真正實用的主要障礙。想像一下走進一個房間,其中投影的3D物體看起來就像周圍的家具一樣真實。這就是該
我們如何使用AI來幫助城市應對極端熱量 我們如何使用AI來幫助城市應對極端熱量 看起來2024年可能會打破迄今為止最熱的一年的記錄,超過了2023年。這種趨勢對生活在城市熱島的人們來說尤為艱難,這些景點是在混凝土和瀝青浸泡太陽射線,然後散發出熱量的城市中的那些景點。這些區域可以溫暖
“退化”合成面可能會增強面部識別技術 “退化”合成面可能會增強面部識別技術 密歇根州立大學的研究人員提出了一種創新的方式,將合成面孔用於崇高的原因 - 增強圖像識別系統的準確性。這些合成面無代替導致深層現象的貢獻
comentario (35)
0/200
JustinJackson
JustinJackson 11 de abril de 2025 00:00:00 GMT

The hype around this new AI scaling law is a bit overblown, if you ask me. Experts are skeptical, and I'm not surprised. It's interesting, but I'm not ready to bet the farm on it just yet. Anyone else feeling the same?

PatrickCarter
PatrickCarter 11 de abril de 2025 00:00:00 GMT

この新しいAIスケーリング法の話題、少し大げさに感じます。専門家も懐疑的で、私も驚きません。興味深いですが、まだ全面的に信じるのは早いかなと思います。皆さんも同じ気持ちですか?

AnthonyPerez
AnthonyPerez 11 de abril de 2025 00:00:00 GMT

이 새로운 AI 스케일링 법에 대한 과대광고는 조금 과장된 것 같아요. 전문가들도 회의적이고, 저도 놀랍지 않아요. 흥미롭긴 하지만, 아직 이것에 전부를 걸기에는 이릅니다. 다른 분들도 같은 생각이신가요?

JamesTaylor
JamesTaylor 11 de abril de 2025 00:00:00 GMT

O hype em torno dessa nova lei de escalabilidade de IA está um pouco exagerado, se me perguntar. Os especialistas estão céticos e eu não fico surpreso. É interessante, mas ainda não estou pronto para apostar tudo nisso. Alguém mais sente o mesmo?

GeorgeEvans
GeorgeEvans 11 de abril de 2025 00:00:00 GMT

El entusiasmo alrededor de esta nueva ley de escalabilidad de IA está un poco exagerado, si me lo preguntas. Los expertos son escépticos y no me sorprende. Es interesante, pero no estoy listo para apostar todo en esto todavía. ¿Alguien más siente lo mismo?

PaulHernández
PaulHernández 11 de abril de 2025 00:00:00 GMT

Heard about this new AI scaling law? Sounds cool but honestly, I'm not convinced. It feels like every other week there's a new 'breakthrough' that fizzles out. Experts seem skeptical too, so I'm just gonna wait and see. Anyone else feel the same?

Volver arriba
OR