Option
Heim
Nachricht
Ai2 enthüllt kompaktes KI-Modell, das Google- und Meta-Konkurrenten übertrifft

Ai2 enthüllt kompaktes KI-Modell, das Google- und Meta-Konkurrenten übertrifft

14. August 2025
1

Ai2 enthüllt kompaktes KI-Modell, das Google- und Meta-Konkurrenten übertrifft

Kleine KI-Modelle sorgen diese Woche für Aufsehen.

Am Donnerstag hat Ai2, eine gemeinnützige KI-Forschungsgruppe, Olmo 2 1B vorgestellt, ein Modell mit 1 Milliarde Parametern, das ähnlich große Modelle von Google, Meta und Alibaba in mehreren Benchmarks übertrifft. Parameter, oft als Gewichte bezeichnet, sind die internen Elemente, die die Leistung eines Modells prägen.

Olmo 2 1B ist unter einer Apache 2.0-Lizenz auf Hugging Face, einer Plattform für KI-Entwickler, frei verfügbar. Im Gegensatz zu den meisten Modellen kann es vollständig nachgebaut werden, wobei Ai2 den Code und die Datensätze (Olmo-mix-1124, Dolmino-mix-1124) teilt, die bei seiner Entwicklung verwendet wurden.

Während kleinere Modelle möglicherweise nicht die Leistungsfähigkeit größerer Modelle haben, benötigen sie keine High-End-Hardware, was sie ideal für Entwickler und Hobbyisten macht, die Standard-Laptops oder Verbrauchergeräte verwenden.

In den letzten Tagen gab es einen Anstieg an Veröffentlichungen kleiner Modelle, von Microsofts Phi 4 Reasoning-Familie bis zu Qwens 2.5 Omni 3B. Die meisten, einschließlich Olmo 2 1B, laufen reibungslos auf modernen Laptops oder sogar Mobilgeräten.

Ai2 gibt an, dass Olmo 2 1B mit 4 Billionen Token aus öffentlichen, KI-generierten und kuratierten Quellen trainiert wurde. Eine Million Token entspricht ungefähr 750.000 Wörtern.

In Tests zum arithmetischen Denken wie GSM8K übertrifft Olmo 2 1B Googles Gemma 3 1B, Metas Llama 3.2 1B und Alibabas Qwen 2.5 1.5B. Es glänzt auch in TruthfulQA, einem Benchmark für faktische Genauigkeit.

Präsentation bei TechCrunch Sessions: AI

Sichern Sie sich Ihren Platz bei TC Sessions: AI, um Ihre Arbeit über 1.200 Entscheidungsträgern zu präsentieren, ohne Ihr Budget zu sprengen. Verfügbar bis 9. Mai oder solange Plätze verfügbar sind.

Präsentation bei TechCrunch Sessions: AI

Sichern Sie sich Ihren Platz bei TC Sessions: AI, um Ihre Arbeit über 1.200 Entscheidungsträgern zu präsentieren, ohne Ihr Budget zu sprengen. Verfügbar bis 9. Mai oder solange Plätze verfügbar sind.

Berkeley, CA | 5. Juni JETZT BUCHEN

Dieses Modell wurde mit 4T Token hochwertiger Daten vorab trainiert, nach dem gleichen Standard-Pretraining mit hochwertiger Anpassung unserer 7, 13, & 32B Modelle. Wir laden alle 1000 Trainingsschritte Zwischen-Checkpoints hoch.

Zugang zum Basismodell: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL

— Ai2 (@allen_ai) 1. Mai 2025

Ai2 warnt, dass Olmo 2 1B Risiken birgt. Wie alle KI-Modelle kann es problematische Ausgaben erzeugen, einschließlich schädlicher oder sensibler Inhalte und ungenauer Informationen. Ai2 rät von der Nutzung in kommerziellen Anwendungen ab.

Verwandter Artikel
Was ist im LLM? AI2 Olmotrace wird die Quelle Was ist im LLM? AI2 Olmotrace wird die Quelle "verfolgen" Das Verständnis der Verbindung zwischen der Ausgabe eines großen Sprachmodells (LLM) und seinen Trainingsdaten war schon immer ein Rätsel für Unternehmen. Diese Woche hat das Allen Institute for AI (AI2) eine aufregende neue Open-Source-Initiative namens Olmotrace gestartet, die darauf abzielt, dieses Relati zu entmystifizieren
KI zur Erschließung neuer Entdeckungen im Jahr 2026, sagt OpenAI-CEO KI zur Erschließung neuer Entdeckungen im Jahr 2026, sagt OpenAI-CEO In einem kürzlich veröffentlichten Essay mit dem Titel "Die sanfte Singularität", der am Dienstag erschien, skizzierte OpenAI-CEO Sam Altman seine Vision für den transformativen Einfluss von KI auf di
Trumps Aufstieg: Wie politische Experten sein Präsidium falsch einschätzten Trumps Aufstieg: Wie politische Experten sein Präsidium falsch einschätzten In der Politik liegen Vorhersagen oft daneben. Experten, Analysten und Kommentatoren prognostizieren häufig Wahlergebnisse und politische Trends, aber die Geschichte zeigt ihre Fehler, insbesondere be
Kommentare (0)
0/200
Zurück nach oben
OR