вариант
Дом
Новости
Прорыв для масштабирования искусственного интеллекта, спросил экспертов

Прорыв для масштабирования искусственного интеллекта, спросил экспертов

10 апреля 2025 г.
97

Прорыв для масштабирования искусственного интеллекта, спросил экспертов

На социальных сетях возник ажиотаж вокруг открытия исследователями нового закона масштабирования ИИ, но эксперты относятся к этому скептически. Законы масштабирования ИИ, которые скорее являются неформальными рекомендациями, показывают, как модели ИИ улучшаются при увеличении объёма данных и вычислительных мощностей. Ещё год назад основным трендом было «предварительное обучение» — тренировка больших моделей на больших наборах данных. Это всё ещё актуально, но теперь появились два новых закона масштабирования: пост-обучение, связанное с настройкой поведения модели, и масштабирование во время тестирования, которое использует больше вычислительных мощностей во время вывода для улучшения «рассуждений» модели (например, модели вроде R1).

Недавно исследователи из Google и UC Berkeley опубликовали статью, которую некоторые в сети называют четвёртым законом: «поиск во время вывода». Этот метод позволяет модели выдавать множество возможных ответов на запрос одновременно, а затем выбирать лучший. Исследователи утверждают, что это может повысить производительность старой модели, такой как Gemini 1.5 Pro от Google, чтобы превзойти модель o1-preview от OpenAI в научных и математических тестах.

Эрик Чжао, докторант Google и соавтор статьи, написал на X, что, просто случайно выбирая 200 ответов и позволяя модели самооцениваться, Gemini 1.5 — которую он в шутку назвал «древней моделью начала 2024 года» — может превзойти o1-preview и даже приблизиться к o1. Он отметил, что самооценка упрощается при масштабировании, что немного противоречиво, но круто.

Но не все убеждены. Мэттью Гуздиал, исследователь ИИ и доцент Университета Альберты, рассказал TechCrunch, что этот подход работает лучше всего, когда есть надёжный способ оценки ответов. Однако большинство вопросов не так просты. Он сказал: «Если мы не можем написать код для определения того, что нам нужно, мы не можем использовать поиск [во время вывода]. Для общих языковых взаимодействий это невозможно... В целом это не лучший подход для решения большинства проблем».

Чжао ответил, что их статья рассматривает случаи, когда нет чёткого способа оценки ответов, и модели приходится разбираться самостоятельно. Он утверждает, что разрыв между наличием и отсутствием чёткого способа оценки сокращается при масштабировании.

Майк Кук, научный сотрудник Королевского колледжа Лондона, поддержал мнение Гуздиала, заявив, что поиск во время вывода не улучшает рассуждения модели. Это скорее обходной путь для склонности модели к уверенным ошибкам. Он отметил, что если модель ошибается в 5% случаев, проверка 200 попыток облегчает обнаружение ошибок.

Эта новость может немного разочаровать индустрию ИИ, которая всегда ищет способы улучшить «рассуждения» моделей без огромных затрат. Как отметили авторы статьи, модели рассуждений могут обходиться в тысячи долларов вычислительных затрат только для решения одной математической задачи.

Поиск новых техник масштабирования далёк от завершения.

Обновлено 20 марта, 5:12 утра по тихоокеанскому времени: Добавлены комментарии соавтора исследования Эрика Чжао, который не согласен с оценкой независимого исследователя, критиковавшего работу.

Связанная статья
Исследование Microsoft выявляет ограничения моделей ИИ в отладке программного обеспечения Исследование Microsoft выявляет ограничения моделей ИИ в отладке программного обеспечения Модели ИИ от OpenAI, Anthropic и других ведущих лабораторий ИИ всё чаще используются для задач программирования. Генеральный директор Google Сундар Пичаи отметил в октябре, что ИИ генерирует 25% новог
AI-мощные решения могут значительно сократить глобальные выбросы углерода AI-мощные решения могут значительно сократить глобальные выбросы углерода Недавнее исследование Лондонской школы экономики и Systemiq показывает, что искусственный интеллект может существенно снизить глобальные выбросы углерода без ущерба для современных удобств, позиционир
Новая статья раскрывает, сколько данных на самом деле запоминают LLM Новая статья раскрывает, сколько данных на самом деле запоминают LLM Сколько на самом деле запоминают модели ИИ? Новое исследование раскрывает удивительные выводыВсе мы знаем, что большие языковые модели (LLM), такие как ChatGPT, Claude и Gemini, обучаются на огромных
Комментарии (35)
DanielThomas
DanielThomas 24 апреля 2025 г., 2:49:41 GMT+03:00

AI 스케일링 돌파구는 멋지게 들리지만, 전문가들은 회의적이에요. 🤔 이제 뭘 믿어야 할지 모르겠어요. 그냥 과대광고일까요? 지켜볼게요, 하지만 기대는 하지 않을게요. 😴

BenRoberts
BenRoberts 23 апреля 2025 г., 21:12:49 GMT+03:00

This AI scaling law thing sounds cool, but it's hard to get excited when experts are so skeptical. It's like they're saying, 'Sure, it's interesting, but let's not get carried away.' I guess we'll see if it's the real deal or just another hype train. 🤔

PatrickMartinez
PatrickMartinez 21 апреля 2025 г., 22:31:56 GMT+03:00

Essa história de lei de escalabilidade de IA parece legal, mas é difícil se empolgar quando os especialistas são tão céticos. Parece que eles estão dizendo, 'Sim, é interessante, mas não vamos nos empolgar muito'. Vamos ver se é verdade ou só mais um hype. 🤔

JohnYoung
JohnYoung 20 апреля 2025 г., 3:36:43 GMT+03:00

AI 스케일링 법칙에 대한 소식은 흥미롭지만, 전문가들이 회의적이라서 흥분하기 어려워. '재미있지만 너무 기대하지 마세요'라는 느낌이야. 실제로 어떻게 될지 지켜봐야겠네. 🤔

HaroldMoore
HaroldMoore 17 апреля 2025 г., 14:24:24 GMT+03:00

AIのスケーリングブレイクスルーは面白そうだけど、専門家は懐疑的。🤔 もう何を信じればいいのかわからない。ただの誇大広告かも?注目はするけど、期待はしないよ。😴

AlbertLee
AlbertLee 16 апреля 2025 г., 18:25:29 GMT+03:00

El avance en la escala de IA suena genial, pero todavía no lo compro. Es todo un hype en las redes sociales, pero los expertos son escépticos. Esperaré más pruebas sólidas antes de subirme al carro. 🤔

Вернуться к вершине
OR