Meta's Model Model Clardmarks: Вводятся в заблуждение?

Итак, Meta выпустила свою новую модель искусственного интеллекта, Maverick, на выходных, и уже делает волны, заняв второе место на LM Arena. Вы знаете, это место, где люди играют в судью и присяжных, сравнивая различные модели ИИ и выбирая их фавориты. Но, держись, есть поворот! Оказывается, Maverick Version, намечающая свои вещи на LM Arena, не совсем то же самое, что и та, с которой вы можете скачать и играть в качестве разработчика.
Некоторые исследователи ИИ с орлиными глазами на X (да, платформа, ранее известная как Twitter), заметили, что Meta назвала версию LM Arena «экспериментальная версия чата». И если вы загляните на веб -сайт Llama, есть диаграмма, которая проливает бобы, говоря, что тестирование было сделано с «Llama 4 Maverick Optimized для разговорности». Теперь мы говорили об этом раньше, но LM Arena не совсем золотой стандарт для измерения производительности искусственного интеллекта. Большинство компаний искусственного интеллекта не связываются со своими моделями, просто чтобы лучше забить в этом тесте - или, по крайней мере, они не признаются в этом.
Дело в том, что когда вы настраиваете модель для того, чтобы выпустить эталон, но затем выпускаете другую версию «ванили» для публики, разработчикам трудно выяснить, насколько хорошо модель действительно будет работать в реальных сценариях. Плюс, это вроде вводит в заблуждение, верно? Цитрицы, которые, как они ни были, должны дать нам четкое представление о том, что модель может и не может делать в разных задачах.
Исследователи на X быстро заметили некоторые большие различия между Maverick, который вы можете скачать, и тем, что на LM Arena. Версия на арене, по-видимому, все о смайликах и любит давать вам долгие, вытянутые ответы.
Хорошо, Llama 4 - это маленькая приготовленная, лол, что это за Yap City Pic.twitter.com/y3gvhbvz65
- Натан Ламберт (@natolambert) 6 апреля 2025 г.
По какой -то причине модель Llama 4 на арене использует гораздо больше смайликов
вместе. ИИ, кажется, лучше: pic.twitter.com/f74odx4ztt
- Tech Dev Notes (@techdevnotes) 6 апреля 2025 г.
Мы обратились к Meta и людям в Chatbot Arena, которые управляют LM Arena, чтобы посмотреть, что они говорят обо всем этом. Следите за обновлениями!
Связанная статья
Meta AI在歐盟推出並實施限制
Meta 的由人工智能驱动的虛擬助手 Meta AI,終於在歐洲聯盟登陸,這是在與歐洲隱私當局的激烈規管爭議中實現的。該公司在星期四宣布,這個類似聊天機器人的工具將整合到其社交平台套件中,不過其功能比美國市場上的版本更加有限。在另一項發展中,Meta 向 TechCrunch 確認,Meta AI 即將在英國的 WhatsApp 上推出,從最初於去年十月在
OpenAI 聘請前Facebook應用程式負責人
菲吉·西莫加入OpenAI担任应用程序业务主管OpenAI通过聘请现任Instacart首席执行官兼前Facebook应用程序负责人菲吉·西莫来领导其应用程序业务,引起了广泛关注。这一任命直接来自高层,OpenAI首席执行官山姆·阿尔特曼在X上分享道,这个新职位将使他能够更多地关注研究、计算和安全性。显然,他们正在为应用程序领域的某些令人兴奋的发展奠定基础!
Meta預測到2035年生成性AI收入將達1.4萬億美元
去年,Meta大膽預測其生成式AI產品到2025年將產生20億至30億美元的收入。展望更遠的未來,他們預計到2035年將增長到驚人的4600億至1.4兆美元之間。這些預測是在週三浮出水面的法庭文件中揭示的,當時正值書籍作者對Meta提起訴訟。他們指控該公司未經許可就用他們的作品訓練AI。然而,文件並未具體說明Meta將何謂“生成式AI產品”。不過,眾所周知,
Комментарии (35)
JerryGonzalez
10 апреля 2025 г., 0:00:00 GMT
Meta's AI model benchmarks seem a bit off to me. Maverick got second place, but I've used it and it's not that great. The interface is clunky and the results are hit or miss. Maybe they're just trying to hype it up? I'd give it a pass for now.
0
CarlKing
10 апреля 2025 г., 0:00:00 GMT
MetaのAIモデルのベンチマークは私には少しおかしいように感じます。Maverickは2位を獲得しましたが、使ってみた感じではそれほど良くありません。インターフェースがぎこちなく、結果も当たり外れがあります。もしかしたら、ただ盛り上げようとしているだけかもしれませんね。今はパスしておきます。
0
SamuelEvans
10 апреля 2025 г., 0:00:00 GMT
Meta의 AI 모델 벤치마크가 내겐 좀 이상해 보여. Maverick이 2위를 했지만, 써보니 그리 대단하지 않아. 인터페이스가 어색하고 결과도 들쑥날쑥해. 어쩌면 그냥 과대광고하려고 하는 건지도 몰라. 지금은 패스할게.
0
BenWalker
10 апреля 2025 г., 0:00:00 GMT
Os benchmarks do modelo de IA da Meta parecem um pouco estranhos para mim. O Maverick ficou em segundo lugar, mas eu usei e não é tão bom assim. A interface é desajeitada e os resultados são inconsistentes. Talvez eles estejam apenas tentando criar hype? Eu passaria por agora.
0
RobertLewis
10 апреля 2025 г., 0:00:00 GMT
Los benchmarks del modelo de IA de Meta me parecen un poco extraños. Maverick quedó en segundo lugar, pero lo he usado y no es tan bueno. La interfaz es torpe y los resultados son inconsistentes. ¿Quizás solo están tratando de generar hype? Por ahora, lo dejaría pasar.
0
KevinBaker
12 апреля 2025 г., 0:00:00 GMT
I tried Meta's Maverick and it's pretty good, but those benchmarks seem a bit off to me. It's not as smooth as they claim, and sometimes it's just plain wrong. I'm not sure if it's worth the hype. Maybe they need to tweak their testing methods?
0
Итак, Meta выпустила свою новую модель искусственного интеллекта, Maverick, на выходных, и уже делает волны, заняв второе место на LM Arena. Вы знаете, это место, где люди играют в судью и присяжных, сравнивая различные модели ИИ и выбирая их фавориты. Но, держись, есть поворот! Оказывается, Maverick Version, намечающая свои вещи на LM Arena, не совсем то же самое, что и та, с которой вы можете скачать и играть в качестве разработчика.
Некоторые исследователи ИИ с орлиными глазами на X (да, платформа, ранее известная как Twitter), заметили, что Meta назвала версию LM Arena «экспериментальная версия чата». И если вы загляните на веб -сайт Llama, есть диаграмма, которая проливает бобы, говоря, что тестирование было сделано с «Llama 4 Maverick Optimized для разговорности». Теперь мы говорили об этом раньше, но LM Arena не совсем золотой стандарт для измерения производительности искусственного интеллекта. Большинство компаний искусственного интеллекта не связываются со своими моделями, просто чтобы лучше забить в этом тесте - или, по крайней мере, они не признаются в этом.
Дело в том, что когда вы настраиваете модель для того, чтобы выпустить эталон, но затем выпускаете другую версию «ванили» для публики, разработчикам трудно выяснить, насколько хорошо модель действительно будет работать в реальных сценариях. Плюс, это вроде вводит в заблуждение, верно? Цитрицы, которые, как они ни были, должны дать нам четкое представление о том, что модель может и не может делать в разных задачах.
Исследователи на X быстро заметили некоторые большие различия между Maverick, который вы можете скачать, и тем, что на LM Arena. Версия на арене, по-видимому, все о смайликах и любит давать вам долгие, вытянутые ответы.
Хорошо, Llama 4 - это маленькая приготовленная, лол, что это за Yap City Pic.twitter.com/y3gvhbvz65
- Натан Ламберт (@natolambert) 6 апреля 2025 г.
По какой -то причине модель Llama 4 на арене использует гораздо больше смайликов
- Tech Dev Notes (@techdevnotes) 6 апреля 2025 г.
вместе. ИИ, кажется, лучше: pic.twitter.com/f74odx4ztt
Мы обратились к Meta и людям в Chatbot Arena, которые управляют LM Arena, чтобы посмотреть, что они говорят обо всем этом. Следите за обновлениями!




Meta's AI model benchmarks seem a bit off to me. Maverick got second place, but I've used it and it's not that great. The interface is clunky and the results are hit or miss. Maybe they're just trying to hype it up? I'd give it a pass for now.




MetaのAIモデルのベンチマークは私には少しおかしいように感じます。Maverickは2位を獲得しましたが、使ってみた感じではそれほど良くありません。インターフェースがぎこちなく、結果も当たり外れがあります。もしかしたら、ただ盛り上げようとしているだけかもしれませんね。今はパスしておきます。




Meta의 AI 모델 벤치마크가 내겐 좀 이상해 보여. Maverick이 2위를 했지만, 써보니 그리 대단하지 않아. 인터페이스가 어색하고 결과도 들쑥날쑥해. 어쩌면 그냥 과대광고하려고 하는 건지도 몰라. 지금은 패스할게.




Os benchmarks do modelo de IA da Meta parecem um pouco estranhos para mim. O Maverick ficou em segundo lugar, mas eu usei e não é tão bom assim. A interface é desajeitada e os resultados são inconsistentes. Talvez eles estejam apenas tentando criar hype? Eu passaria por agora.




Los benchmarks del modelo de IA de Meta me parecen un poco extraños. Maverick quedó en segundo lugar, pero lo he usado y no es tan bueno. La interfaz es torpe y los resultados son inconsistentes. ¿Quizás solo están tratando de generar hype? Por ahora, lo dejaría pasar.




I tried Meta's Maverick and it's pretty good, but those benchmarks seem a bit off to me. It's not as smooth as they claim, and sometimes it's just plain wrong. I'm not sure if it's worth the hype. Maybe they need to tweak their testing methods?












