Option
Heim
Nachricht
AI Skaling Breakthrough von Experten in Frage gestellt

AI Skaling Breakthrough von Experten in Frage gestellt

10. April 2025
96

AI Skaling Breakthrough von Experten in Frage gestellt

In den sozialen Medien wurde einige Summe darüber, dass Forscher ein neues KI -Skalierungsrecht entdecken, aber Experten nehmen ihn mit einem Körnchen Salz. KI -Skalierungsgesetze, die eher informelle Richtlinien ähneln, zeigen, wie KI -Modelle besser werden, wenn Sie mehr Daten und Rechenleistung auf sie werfen. Bis vor ungefähr einem Jahr drehte sich der große Trend um "Vorausbildung"-im Grunde genommen die Schulung größerer Modelle für größere Datensätze. Das ist immer noch eine Sache, aber jetzt haben wir zwei weitere Skalierungsgesetze in der Mischung: Nach dem Trainingskalierung, bei dem es darum geht, das Verhalten eines Modells zu optimieren, und die Testzeit-Skalierung, bei der mehr Rechenleistung während der Inferenz verwendet wird, um die "Argumentationsfunktionen" eines Modells zu steigern (denken Sie Modelle wie R1). Kürzlich haben Forscher von Google und UC Berkeley ein Papier fallen, das einige Leute online als viertes Gesetz bezeichnen: "Inferenzzeitsuche". In dieser Methode wird das Modell gleichzeitig eine Reihe möglicher Antworten auf eine Abfrage ausspucken und dann das Beste auswählen. Die Forscher behaupten, es könne die Leistung eines älteren Modells wie Googles Gemini 1.5 Pro enttäuschen, um OpenAs O1-Präview-Modell für Wissenschaft und Mathematik-Benchmarks zu besiegen. Eric Zhao, ein Google Doctorate Fellow und einer der Co-Autoren der Zeitung, teilten X auf X, dass durch zufällig 200 Antworten und die Selbstverifizierung des Modells, Gemini 1.5-, was er scherzhaft als "altes frühes Modell 2024" bezeichnete-O1-Preview und sogar in der Nähe von O1 eingehen konnte. Er wies darauf hin, dass die Selbstverifizierung beim Skalieren einfacher wird, was eine Art kontraintuitiv, aber cool ist. Aber nicht jeder ist überzeugt. Matthew Guzdial, AI -Forscher und Assistenzprofessor an der University of Alberta, sagte gegenüber TechCrunch, dass dieser Ansatz am besten funktioniert, wenn Sie eine solide Möglichkeit haben, die Antworten zu beurteilen. Die meisten Fragen sind jedoch nicht so einfach. Er sagte: "Wenn wir keinen Code schreiben können, um das zu definieren, was wir wollen, können wir [Inferenzzeit] -Suche nicht verwenden. Für etwas wie allgemeine Sprachinteraktion können wir dies nicht tun ... es ist im Allgemeinen kein großartiger Ansatz, um die meisten Probleme tatsächlich zu lösen." Zhao antwortete und sagte, dass ihr Papier tatsächlich Fälle untersucht, in denen Sie keine klare Möglichkeit haben, die Antworten zu beurteilen, und das Modell muss es selbst herausfinden. Er argumentierte, dass die Lücke zwischen einer klaren Art zu beurteilen und nicht zu haben könne, wenn Sie sich skalieren. Mike Cook, ein wissenschaftlicher Fellow am King's College London, unterstützte die Ansicht von Guzdial und sagte, dass die Suche nach Inferenzzeit die Argumentation des Modells nicht wirklich besser macht. Es ist eher eine Problemumgehung für die Tendenz des Modells, selbstbewusste Fehler zu machen. Er wies darauf hin, dass, wenn Ihr Modell 5% der Fälle durcheinander bringt, das Überprüfen von 200 Versuchen das Erkennen dieser Fehler erleichtern sollte. Diese Nachricht ist vielleicht ein kleiner Downer für die KI -Branche, die immer auf der Suche nach Möglichkeiten ist, das Modell "Argumentation" zu steigern, ohne die Bank zu brechen. Wie die Autoren des Papiers feststellten, können Argumentationsmodelle Tausende von Dollar an Rechenkosten einbringen, nur um ein mathematisches Problem zu lösen. Sieht so aus, als ob die Suche nach neuen Skalierungstechniken noch lange nicht vorbei ist. *Aktualisiert 05.05.
Verwandter Artikel
專注於實惠增強現實的真實對焦系統 專注於實惠增強現實的真實對焦系統 顛覆基於投影的增強現實技術來自著名機構電機電子工程師學會(IEEE)的研究人員在基於投影的增強現實領域取得了突破性的進展。他們的解決方案?配備了電控可變焦鏡片(ETL)的特殊眼鏡,這些鏡片模擬人類眼睛自然感知深度的方式。這種創新的方法解決了使投影系統在受控環境中真正實用的主要障礙。想像一下走進一個房間,其中投影的3D物體看起來就像周圍的家具一樣真實。這就是該
我們如何使用AI來幫助城市應對極端熱量 我們如何使用AI來幫助城市應對極端熱量 看起來2024年可能會打破迄今為止最熱的一年的記錄,超過了2023年。這種趨勢對生活在城市熱島的人們來說尤為艱難,這些景點是在混凝土和瀝青浸泡太陽射線,然後散發出熱量的城市中的那些景點。這些區域可以溫暖
“退化”合成面可能會增強面部識別技術 “退化”合成面可能會增強面部識別技術 密歇根州立大學的研究人員提出了一種創新的方式,將合成面孔用於崇高的原因 - 增強圖像識別系統的準確性。這些合成面無代替導致深層現象的貢獻
Kommentare (35)
0/200
JustinJackson
JustinJackson 11. April 2025 00:00:00 GMT

The hype around this new AI scaling law is a bit overblown, if you ask me. Experts are skeptical, and I'm not surprised. It's interesting, but I'm not ready to bet the farm on it just yet. Anyone else feeling the same?

PatrickCarter
PatrickCarter 11. April 2025 00:00:00 GMT

この新しいAIスケーリング法の話題、少し大げさに感じます。専門家も懐疑的で、私も驚きません。興味深いですが、まだ全面的に信じるのは早いかなと思います。皆さんも同じ気持ちですか?

AnthonyPerez
AnthonyPerez 11. April 2025 00:00:00 GMT

이 새로운 AI 스케일링 법에 대한 과대광고는 조금 과장된 것 같아요. 전문가들도 회의적이고, 저도 놀랍지 않아요. 흥미롭긴 하지만, 아직 이것에 전부를 걸기에는 이릅니다. 다른 분들도 같은 생각이신가요?

JamesTaylor
JamesTaylor 11. April 2025 00:00:00 GMT

O hype em torno dessa nova lei de escalabilidade de IA está um pouco exagerado, se me perguntar. Os especialistas estão céticos e eu não fico surpreso. É interessante, mas ainda não estou pronto para apostar tudo nisso. Alguém mais sente o mesmo?

GeorgeEvans
GeorgeEvans 11. April 2025 00:00:00 GMT

El entusiasmo alrededor de esta nueva ley de escalabilidad de IA está un poco exagerado, si me lo preguntas. Los expertos son escépticos y no me sorprende. Es interesante, pero no estoy listo para apostar todo en esto todavía. ¿Alguien más siente lo mismo?

PaulHernández
PaulHernández 11. April 2025 00:00:00 GMT

Heard about this new AI scaling law? Sounds cool but honestly, I'm not convinced. It feels like every other week there's a new 'breakthrough' that fizzles out. Experts seem skeptical too, so I'm just gonna wait and see. Anyone else feel the same?

Zurück nach oben
OR