Ai2 enthüllt kompaktes KI-Modell, das Google- und Meta-Konkurrenten übertrifft

Kleine KI-Modelle sorgen diese Woche für Aufsehen.
Am Donnerstag hat Ai2, eine gemeinnützige KI-Forschungsgruppe, Olmo 2 1B vorgestellt, ein Modell mit 1 Milliarde Parametern, das ähnlich große Modelle von Google, Meta und Alibaba in mehreren Benchmarks übertrifft. Parameter, oft als Gewichte bezeichnet, sind die internen Elemente, die die Leistung eines Modells prägen.
Olmo 2 1B ist unter einer Apache 2.0-Lizenz auf Hugging Face, einer Plattform für KI-Entwickler, frei verfügbar. Im Gegensatz zu den meisten Modellen kann es vollständig nachgebaut werden, wobei Ai2 den Code und die Datensätze (Olmo-mix-1124, Dolmino-mix-1124) teilt, die bei seiner Entwicklung verwendet wurden.
Während kleinere Modelle möglicherweise nicht die Leistungsfähigkeit größerer Modelle haben, benötigen sie keine High-End-Hardware, was sie ideal für Entwickler und Hobbyisten macht, die Standard-Laptops oder Verbrauchergeräte verwenden.
In den letzten Tagen gab es einen Anstieg an Veröffentlichungen kleiner Modelle, von Microsofts Phi 4 Reasoning-Familie bis zu Qwens 2.5 Omni 3B. Die meisten, einschließlich Olmo 2 1B, laufen reibungslos auf modernen Laptops oder sogar Mobilgeräten.
Ai2 gibt an, dass Olmo 2 1B mit 4 Billionen Token aus öffentlichen, KI-generierten und kuratierten Quellen trainiert wurde. Eine Million Token entspricht ungefähr 750.000 Wörtern.
In Tests zum arithmetischen Denken wie GSM8K übertrifft Olmo 2 1B Googles Gemma 3 1B, Metas Llama 3.2 1B und Alibabas Qwen 2.5 1.5B. Es glänzt auch in TruthfulQA, einem Benchmark für faktische Genauigkeit.
Präsentation bei TechCrunch Sessions: AI
Sichern Sie sich Ihren Platz bei TC Sessions: AI, um Ihre Arbeit über 1.200 Entscheidungsträgern zu präsentieren, ohne Ihr Budget zu sprengen. Verfügbar bis 9. Mai oder solange Plätze verfügbar sind.
Präsentation bei TechCrunch Sessions: AI
Sichern Sie sich Ihren Platz bei TC Sessions: AI, um Ihre Arbeit über 1.200 Entscheidungsträgern zu präsentieren, ohne Ihr Budget zu sprengen. Verfügbar bis 9. Mai oder solange Plätze verfügbar sind.
Berkeley, CA | 5. Juni
JETZT BUCHEN
Dieses Modell wurde mit 4T Token hochwertiger Daten vorab trainiert, nach dem gleichen Standard-Pretraining mit hochwertiger Anpassung unserer 7, 13, & 32B Modelle. Wir laden alle 1000 Trainingsschritte Zwischen-Checkpoints hoch.
Zugang zum Basismodell: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) 1. Mai 2025
Ai2 warnt, dass Olmo 2 1B Risiken birgt. Wie alle KI-Modelle kann es problematische Ausgaben erzeugen, einschließlich schädlicher oder sensibler Inhalte und ungenauer Informationen. Ai2 rät von der Nutzung in kommerziellen Anwendungen ab.
Verwandter Artikel
Was ist im LLM? AI2 Olmotrace wird die Quelle "verfolgen"
Das Verständnis der Verbindung zwischen der Ausgabe eines großen Sprachmodells (LLM) und seinen Trainingsdaten war schon immer ein Rätsel für Unternehmen. Diese Woche hat das Allen Institute for AI (AI2) eine aufregende neue Open-Source-Initiative namens Olmotrace gestartet, die darauf abzielt, dieses Relati zu entmystifizieren
KI-generiertes Crossover vereint Arthur Morgan und Joshua Graham im Gaming-Multiversum
Wenn Spielwelten aufeinanderprallen: Arthur Morgan trifft auf den verbrannten MannStellen Sie sich eine Welt vor, in der legendäre Spielcharaktere über ihre eigenen Geschichten hinausgehen - was passi
Microsoft hostet die fortschrittlichen Grok 3-Modelle von xAI in neuer KI-Kooperation
Anfang des Monats deckte mein *Notepad* investigativer Journalismus Microsofts Pläne zur Integration der Grok-KI-Modelle von Elon Musk auf - Enthüllungen, die nun offiziell bestätigt wurden. Auf Micro
Kommentare (1)
0/200
MarkWilson
26. August 2025 17:01:15 MESZ
This tiny AI model from Ai2 sounds like a game-changer! Beating Google and Meta? That's wild! 🚀 Curious how it performs in real-world apps.
0
Kleine KI-Modelle sorgen diese Woche für Aufsehen.
Am Donnerstag hat Ai2, eine gemeinnützige KI-Forschungsgruppe, Olmo 2 1B vorgestellt, ein Modell mit 1 Milliarde Parametern, das ähnlich große Modelle von Google, Meta und Alibaba in mehreren Benchmarks übertrifft. Parameter, oft als Gewichte bezeichnet, sind die internen Elemente, die die Leistung eines Modells prägen.
Olmo 2 1B ist unter einer Apache 2.0-Lizenz auf Hugging Face, einer Plattform für KI-Entwickler, frei verfügbar. Im Gegensatz zu den meisten Modellen kann es vollständig nachgebaut werden, wobei Ai2 den Code und die Datensätze (Olmo-mix-1124, Dolmino-mix-1124) teilt, die bei seiner Entwicklung verwendet wurden.
Während kleinere Modelle möglicherweise nicht die Leistungsfähigkeit größerer Modelle haben, benötigen sie keine High-End-Hardware, was sie ideal für Entwickler und Hobbyisten macht, die Standard-Laptops oder Verbrauchergeräte verwenden.
In den letzten Tagen gab es einen Anstieg an Veröffentlichungen kleiner Modelle, von Microsofts Phi 4 Reasoning-Familie bis zu Qwens 2.5 Omni 3B. Die meisten, einschließlich Olmo 2 1B, laufen reibungslos auf modernen Laptops oder sogar Mobilgeräten.
Ai2 gibt an, dass Olmo 2 1B mit 4 Billionen Token aus öffentlichen, KI-generierten und kuratierten Quellen trainiert wurde. Eine Million Token entspricht ungefähr 750.000 Wörtern.
In Tests zum arithmetischen Denken wie GSM8K übertrifft Olmo 2 1B Googles Gemma 3 1B, Metas Llama 3.2 1B und Alibabas Qwen 2.5 1.5B. Es glänzt auch in TruthfulQA, einem Benchmark für faktische Genauigkeit.
Präsentation bei TechCrunch Sessions: AI
Sichern Sie sich Ihren Platz bei TC Sessions: AI, um Ihre Arbeit über 1.200 Entscheidungsträgern zu präsentieren, ohne Ihr Budget zu sprengen. Verfügbar bis 9. Mai oder solange Plätze verfügbar sind.
Präsentation bei TechCrunch Sessions: AI
Sichern Sie sich Ihren Platz bei TC Sessions: AI, um Ihre Arbeit über 1.200 Entscheidungsträgern zu präsentieren, ohne Ihr Budget zu sprengen. Verfügbar bis 9. Mai oder solange Plätze verfügbar sind.
Berkeley, CA | 5. Juni JETZT BUCHENDieses Modell wurde mit 4T Token hochwertiger Daten vorab trainiert, nach dem gleichen Standard-Pretraining mit hochwertiger Anpassung unserer 7, 13, & 32B Modelle. Wir laden alle 1000 Trainingsschritte Zwischen-Checkpoints hoch.
— Ai2 (@allen_ai) 1. Mai 2025
Zugang zum Basismodell: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2 warnt, dass Olmo 2 1B Risiken birgt. Wie alle KI-Modelle kann es problematische Ausgaben erzeugen, einschließlich schädlicher oder sensibler Inhalte und ungenauer Informationen. Ai2 rät von der Nutzung in kommerziellen Anwendungen ab.




This tiny AI model from Ai2 sounds like a game-changer! Beating Google and Meta? That's wild! 🚀 Curious how it performs in real-world apps.












