Meta verteidigt LLAMA 4 Release, zitiert Fehler als Ursache für Berichte mit gemischter Qualität
Am Wochenende überraschte Meta, das Kraftpaket hinter Facebook, Instagram, WhatsApp und Quest VR alle, indem sie ihr neuestes KI-Sprachmodell enthüllten. Darüber hinaus sind alle drei Modelle mit erweiterten Kontextfenstern ausgestattet, sodass sie weitere Informationen in einer einzigen Interaktion verarbeiten können.
Trotz der Aufregung der Veröffentlichung war die Reaktion der KI -Community bestenfalls lauwarm. Am Samstag machte Meta zwei dieser Modelle, Lama 4 Scout und Lama 4 Maverick, zum Download und Gebrauch zur Verfügung, aber die Antwort war alles andere als begeistert.
Lama 4 löst Verwirrung und Kritik unter KI -Nutzern aus
Ein nicht überprüfter Beitrag im 1Point3Acres -Forum, einer beliebten chinesischen Sprachgemeinschaft in Nordamerika, fand seinen Weg zum R/Localllama Subreddit on Reddit. Die Post, die angeblich von einem Forscher der Genai-Organisation von Meta behauptete, behauptete, Lama 4 habe sich auf internen Benchmarks von Drittanbietern unterdurchschnittlich geschafft. Es deutete darauf hin, dass die Führung von Meta die Ergebnisse manipuliert hatte, indem sie Testsets während der Nachtrage mischen, um verschiedene Metriken zu erfüllen und ein günstiges Ergebnis zu präsentieren. Die Authentizität dieser Behauptung stieß auf Skepsis, und Meta muss noch auf Anfragen von VentureBeat reagieren.
Dennoch hörten die Zweifel an Lama 4s Leistung hier nicht auf. Auf X drückte der Benutzer @CTO_Junior Unglauben bei der Leistung des Modells aus, unter Berufung auf einen unabhängigen Test, bei dem LLAMA 4 Maverick nur 16% auf dem AID -Polyglot -Benchmark erzielte, bei dem die Codierungsaufgaben getestet werden. Diese Punktzahl ist signifikant niedriger als die von älteren Modellen wie Deepseek V3 und Claude 3.7 Sonett.
AI PhD und der Autor Andriy Burkov haben auch X aufgenommen, um das 10-Millionen-Token-Kontextfenster für Llama 4 Scout in Frage zu stellen, und erklärte, es sei "virtuell", weil das Modell nicht länger als 256.000 Token trainiert wurde. Er warnte, dass das Senden längerer Eingabeaufforderungen wahrscheinlich zu Ausgaben von geringer Qualität führen würde.
Auf dem R/Localllama Subreddit teilte der Benutzer DR_Karminski die Enttäuschung mit LLAMA 4 mit und vergleicht seine schlechte Leistung mit Deepseeks nicht umsetztem V3-Modell für Aufgaben wie der Simulation von Ballbewegungen innerhalb eines Heptagon.
Nathan Lambert, ehemaliger Metaforscher und aktueller leitender Forschungswissenschaftler bei AI2, kritisierte die Benchmark -Vergleiche von Meta in seinem Interconnects -Substack -Blog. Er wies darauf hin, dass sich das in den Werbematerialien von Meta verwendete Lama 4 -Maverick -Modell von dem öffentlich veröffentlichten, der statt der Gesprächlichkeit optimiert wurde. Lambert bemerkte die Diskrepanz und sagte: "Sneaky. Die folgenden Ergebnisse sind gefälscht, und es ist ein großes geringfügiges für die Meta -Community, das Modell, mit dem sie ihren Hauptmarketing -Push zu erstellen, nicht freizugeben." Er fügte hinzu, dass das Werbemodell "den technischen Ruf der Veröffentlichung tank, weil sein Charakter juvenil ist", "das tatsächliche Modell, das auf anderen Plattformen verfügbar ist, war" ziemlich klug und einen vernünftigen Ton ".

Meta antwortet, verweigert "Training an Testsätzen" und zitiert Fehler in der Implementierung aufgrund eines schnellen Rollouts
Als Reaktion auf die Kritik und Anschuldigungen nahmen Metas VP und Leiter Genai, Ahmad al-Dahle, zu X, um die Bedenken auszuräumen. Er zeigte sich Begeisterung für das Engagement der Gemeinschaft mit Lama 4, erkannte jedoch Berichte über inkonsistente Qualität in verschiedenen Diensten an. Er führte diese Probleme dem schnellen Rollout und der Zeit zu, die für die Stabilisierung der öffentlichen Implementierungen erforderlich war. Al-Dahle lehnte die Vorwürfe der Schulung in Testsätzen fest und betonte, dass die variable Qualität eher auf Implementierungsfehler als auf ein Fehlverhalten zurückzuführen war. Er bekräftigte den Glauben von Meta an die bedeutenden Fortschritte der Lama 4 -Modelle und ihr Engagement für die Zusammenarbeit mit der Gemeinschaft, um ihr Potenzial auszuschöpfen.
Die Reaktion machte jedoch wenig dazu bei, die Frustrationen der Community zu unterdrücken. Viele meldeten immer noch schlechte Leistung und forderten mehr technische Dokumentation über die Schulungsprozesse der Modelle. Diese Veröffentlichung hat mehr Probleme als frühere Lama -Versionen konfrontiert und wirft Fragen zu ihrer Entwicklung und Rollout auf.
Das Timing dieser Veröffentlichung ist bemerkenswert, da sie dem Abgang von Joelle Pineau, dem VP of Research von Meta, folgt, der letzte Woche ihren Ausstieg zu LinkedIn mit Dankbarkeit für ihre Zeit im Unternehmen ankündigte. Pineau hatte am Wochenende auch die Lama 4 Model -Familie beworben.
Da Lama 4 weiterhin von anderen Inferenzanbietern mit gemischten Ergebnissen übernommen wird, ist klar, dass die erste Veröffentlichung nicht der Erfolg war, auf das Meta gehofft hat. Der bevorstehende Meta Llamacon am 29. April, der die erste Versammlung für Entwickler der Modellfamilie von Drittanbietern sein wird, wird wahrscheinlich eine Brutstätte der Diskussion und Debatte sein. Wir werden die Entwicklungen genau im Auge behalten, also bleiben Sie dran.
Verwandter Artikel
谷歌AI躍升內幕:Gemini 2.5 思維更深、表達更智能且編碼更快
谷歌朝著通用AI助手的願景邁進一步在今年的Google I/O大會上,該公司揭示了其Gemini 2.5系列的重大升級,特別是在多個維度上提升其能力。最新的版本——Gemini 2.5 Flash和2.5 Pro——現在比以往更加聰明和高效。這些進步使谷歌更接近實現其創造通用AI助手的願景,這個助手能夠無縫理解情境、計劃並執行任務。### Gemini 2.
深度認知發布開源AI模型,已名列前茅
深度思睿推出革命性的人工智能模型旧金山一家尖端的人工智能研究初创公司深度思睿(Deep Cogito)正式发布了其首批开源大型语言模型(LLMs),命名为思睿v1。这些模型经过微调自Meta的Llama 3.2,具备混合推理能力,能够快速响应或进行内省思考——这一功能让人联想到OpenAI的“o”系列和DeepSeek R1。深度思睿旨在通过在其模型中促进迭
微軟在Build 2025大會上宣布推出超過50款AI工具打造『主動網路』
微軟於Build大會揭開開放式自主網路願景今天早上,微軟在其年度Build大會上發表了一項大膽宣言:「開放式自主網路」的黎明已經到來。在超過50項公告的廣泛陣容中,這家科技巨頭概述了一項全面策略,將自己置於這個轉型運動的核心位置。從GitHub到Azure,從Windows到Microsoft 365,每條產品線都收到了旨在推動AI代理技術進步的更新。這些代
Kommentare (0)
0/200
Am Wochenende überraschte Meta, das Kraftpaket hinter Facebook, Instagram, WhatsApp und Quest VR alle, indem sie ihr neuestes KI-Sprachmodell enthüllten. Darüber hinaus sind alle drei Modelle mit erweiterten Kontextfenstern ausgestattet, sodass sie weitere Informationen in einer einzigen Interaktion verarbeiten können.
Trotz der Aufregung der Veröffentlichung war die Reaktion der KI -Community bestenfalls lauwarm. Am Samstag machte Meta zwei dieser Modelle, Lama 4 Scout und Lama 4 Maverick, zum Download und Gebrauch zur Verfügung, aber die Antwort war alles andere als begeistert.
Lama 4 löst Verwirrung und Kritik unter KI -Nutzern aus
Ein nicht überprüfter Beitrag im 1Point3Acres -Forum, einer beliebten chinesischen Sprachgemeinschaft in Nordamerika, fand seinen Weg zum R/Localllama Subreddit on Reddit. Die Post, die angeblich von einem Forscher der Genai-Organisation von Meta behauptete, behauptete, Lama 4 habe sich auf internen Benchmarks von Drittanbietern unterdurchschnittlich geschafft. Es deutete darauf hin, dass die Führung von Meta die Ergebnisse manipuliert hatte, indem sie Testsets während der Nachtrage mischen, um verschiedene Metriken zu erfüllen und ein günstiges Ergebnis zu präsentieren. Die Authentizität dieser Behauptung stieß auf Skepsis, und Meta muss noch auf Anfragen von VentureBeat reagieren.
Dennoch hörten die Zweifel an Lama 4s Leistung hier nicht auf. Auf X drückte der Benutzer @CTO_Junior Unglauben bei der Leistung des Modells aus, unter Berufung auf einen unabhängigen Test, bei dem LLAMA 4 Maverick nur 16% auf dem AID -Polyglot -Benchmark erzielte, bei dem die Codierungsaufgaben getestet werden. Diese Punktzahl ist signifikant niedriger als die von älteren Modellen wie Deepseek V3 und Claude 3.7 Sonett.
AI PhD und der Autor Andriy Burkov haben auch X aufgenommen, um das 10-Millionen-Token-Kontextfenster für Llama 4 Scout in Frage zu stellen, und erklärte, es sei "virtuell", weil das Modell nicht länger als 256.000 Token trainiert wurde. Er warnte, dass das Senden längerer Eingabeaufforderungen wahrscheinlich zu Ausgaben von geringer Qualität führen würde.
Auf dem R/Localllama Subreddit teilte der Benutzer DR_Karminski die Enttäuschung mit LLAMA 4 mit und vergleicht seine schlechte Leistung mit Deepseeks nicht umsetztem V3-Modell für Aufgaben wie der Simulation von Ballbewegungen innerhalb eines Heptagon.
Nathan Lambert, ehemaliger Metaforscher und aktueller leitender Forschungswissenschaftler bei AI2, kritisierte die Benchmark -Vergleiche von Meta in seinem Interconnects -Substack -Blog. Er wies darauf hin, dass sich das in den Werbematerialien von Meta verwendete Lama 4 -Maverick -Modell von dem öffentlich veröffentlichten, der statt der Gesprächlichkeit optimiert wurde. Lambert bemerkte die Diskrepanz und sagte: "Sneaky. Die folgenden Ergebnisse sind gefälscht, und es ist ein großes geringfügiges für die Meta -Community, das Modell, mit dem sie ihren Hauptmarketing -Push zu erstellen, nicht freizugeben." Er fügte hinzu, dass das Werbemodell "den technischen Ruf der Veröffentlichung tank, weil sein Charakter juvenil ist", "das tatsächliche Modell, das auf anderen Plattformen verfügbar ist, war" ziemlich klug und einen vernünftigen Ton ".
Meta antwortet, verweigert "Training an Testsätzen" und zitiert Fehler in der Implementierung aufgrund eines schnellen Rollouts
Als Reaktion auf die Kritik und Anschuldigungen nahmen Metas VP und Leiter Genai, Ahmad al-Dahle, zu X, um die Bedenken auszuräumen. Er zeigte sich Begeisterung für das Engagement der Gemeinschaft mit Lama 4, erkannte jedoch Berichte über inkonsistente Qualität in verschiedenen Diensten an. Er führte diese Probleme dem schnellen Rollout und der Zeit zu, die für die Stabilisierung der öffentlichen Implementierungen erforderlich war. Al-Dahle lehnte die Vorwürfe der Schulung in Testsätzen fest und betonte, dass die variable Qualität eher auf Implementierungsfehler als auf ein Fehlverhalten zurückzuführen war. Er bekräftigte den Glauben von Meta an die bedeutenden Fortschritte der Lama 4 -Modelle und ihr Engagement für die Zusammenarbeit mit der Gemeinschaft, um ihr Potenzial auszuschöpfen.
Die Reaktion machte jedoch wenig dazu bei, die Frustrationen der Community zu unterdrücken. Viele meldeten immer noch schlechte Leistung und forderten mehr technische Dokumentation über die Schulungsprozesse der Modelle. Diese Veröffentlichung hat mehr Probleme als frühere Lama -Versionen konfrontiert und wirft Fragen zu ihrer Entwicklung und Rollout auf.
Das Timing dieser Veröffentlichung ist bemerkenswert, da sie dem Abgang von Joelle Pineau, dem VP of Research von Meta, folgt, der letzte Woche ihren Ausstieg zu LinkedIn mit Dankbarkeit für ihre Zeit im Unternehmen ankündigte. Pineau hatte am Wochenende auch die Lama 4 Model -Familie beworben.
Da Lama 4 weiterhin von anderen Inferenzanbietern mit gemischten Ergebnissen übernommen wird, ist klar, dass die erste Veröffentlichung nicht der Erfolg war, auf das Meta gehofft hat. Der bevorstehende Meta Llamacon am 29. April, der die erste Versammlung für Entwickler der Modellfamilie von Drittanbietern sein wird, wird wahrscheinlich eine Brutstätte der Diskussion und Debatte sein. Wir werden die Entwicklungen genau im Auge behalten, also bleiben Sie dran.












