Ai2がコンパクトなAIモデルを発表、GoogleやMetaのライバルを上回る

小型AIモデルが今週話題に。
木曜日、非営利のAI研究グループAi2は、10億パラメータのモデルOlmo 2 1Bを発表。Google、Meta、Alibabaの同規模モデルを複数のベンチマークで上回る。パラメータ(重み)はモデルの性能を形成する内部要素。
Olmo 2 1Bは、Hugging FaceプラットフォームでApache 2.0ライセンスの下、無料で利用可能。ほとんどのモデルと異なり、Ai2は開発に使用したコードとデータセット(Olmo-mix-1124、Dolmino-mix-1124)を公開し、完全再現が可能。
小型モデルは大型モデルに比べパワーは劣るが、高性能ハードウェアを必要とせず、標準的なラップトップや消費者向けデバイスで利用できるため、開発者やホビーストに最適。
最近、MicrosoftのPhi 4推論ファミリーやQwenの2.5 Omni 3Bなど、小型モデルのリリースが急増。Olmo 2 1Bを含むほとんどのモデルは、最新のラップトップやモバイルデバイスでスムーズに動作。
Ai2によると、Olmo 2 1Bは公開データ、AI生成データ、キュレーションされたソースから4兆トークンでトレーニング。100万トークンは約75万語に相当。
GSM8Kなどの算術推論テストで、Olmo 2 1BはGoogleのGemma 3 1B、MetaのLlama 3.2 1B、AlibabaのQwen 2.5 1.5Bを上回る。TruthfulQA(事実の正確性ベンチマーク)でも優れる。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
Berkeley, CA | 6月5日
今すぐ予約
このモデルは、7、13、32Bモデルの高品質事前トレーニングと高品質アニーリングを踏襲し、4Tトークンの高品質データで事前トレーニング。トレーニングの1000ステップごとに中間チェックポイントをアップロード。
ベースモデルにアクセス:https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) 2025年5月1日
Ai2は、Olmo 2 1Bにはリスクがあると警告。すべてのAIモデルと同様、有害またはセンシティブな内容、不正確な情報を生成する可能性。商業用途には推奨しない。
関連記事
LLMの中には何がありますか? AI2 Olmotraceはソースを「追跡」します
大規模な言語モデル(LLM)の出力とそのトレーニングデータの間の接続を理解することは、常にエンタープライズITにとって少しパズルです。今週、AIのアレン研究所(AI2)は、この関係を分裂させることを目的としたオルモトレースと呼ばれるエキサイティングな新しいオープンソースイニシアチブを開始しました。
AIが生み出すクロスオーバーで、アーサー・モーガンとジョシュア・グラハムがゲーム・マルチバースで結ばれる
ゲームの世界がぶつかるときアーサー・モーガンと「焼かれた男」の出会いレッド・デッド・リデンプション2」のアーサー・モーガンが、「フォールアウト:ニュー・ヴェガス」の傷だらけの預言者ジョシュア・グラハムと出会ったとき、何が展開するのか?贖罪、回復力、そして決断がもたらす永続的な結果といった普遍的なテーマを探求しながら、AIが彼らの深い対話を考察する。新たなAIゲーム・マルチバースから、この魅力的なク
マイクロソフト、新たなAIコラボレーションでxAIの高度なGrok 3モデルをホスト
今月初め、私の*メモ帳*調査報道は、マイクロソフトがイーロン・マスクのGrok AIモデルを統合する計画を明らかにした。今日、マイクロソフトの年次開発者会議Buildで、同社幹部はAzure AI Foundryがマスク氏のxAIスタートアップのGrok-3とそのコンパクトな兄弟機Grok-3 miniの両方を組み込むことを明らかにした。拡大するマイクロソフトのAIエコシステムマイクロソフトの広報
コメント (1)
0/200
MarkWilson
2025年8月27日 0:01:15 JST
This tiny AI model from Ai2 sounds like a game-changer! Beating Google and Meta? That's wild! 🚀 Curious how it performs in real-world apps.
0
小型AIモデルが今週話題に。
木曜日、非営利のAI研究グループAi2は、10億パラメータのモデルOlmo 2 1Bを発表。Google、Meta、Alibabaの同規模モデルを複数のベンチマークで上回る。パラメータ(重み)はモデルの性能を形成する内部要素。
Olmo 2 1Bは、Hugging FaceプラットフォームでApache 2.0ライセンスの下、無料で利用可能。ほとんどのモデルと異なり、Ai2は開発に使用したコードとデータセット(Olmo-mix-1124、Dolmino-mix-1124)を公開し、完全再現が可能。
小型モデルは大型モデルに比べパワーは劣るが、高性能ハードウェアを必要とせず、標準的なラップトップや消費者向けデバイスで利用できるため、開発者やホビーストに最適。
最近、MicrosoftのPhi 4推論ファミリーやQwenの2.5 Omni 3Bなど、小型モデルのリリースが急増。Olmo 2 1Bを含むほとんどのモデルは、最新のラップトップやモバイルデバイスでスムーズに動作。
Ai2によると、Olmo 2 1Bは公開データ、AI生成データ、キュレーションされたソースから4兆トークンでトレーニング。100万トークンは約75万語に相当。
GSM8Kなどの算術推論テストで、Olmo 2 1BはGoogleのGemma 3 1B、MetaのLlama 3.2 1B、AlibabaのQwen 2.5 1.5Bを上回る。TruthfulQA(事実の正確性ベンチマーク)でも優れる。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
Berkeley, CA | 6月5日 今すぐ予約このモデルは、7、13、32Bモデルの高品質事前トレーニングと高品質アニーリングを踏襲し、4Tトークンの高品質データで事前トレーニング。トレーニングの1000ステップごとに中間チェックポイントをアップロード。
— Ai2 (@allen_ai) 2025年5月1日
ベースモデルにアクセス:https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2は、Olmo 2 1Bにはリスクがあると警告。すべてのAIモデルと同様、有害またはセンシティブな内容、不正確な情報を生成する可能性。商業用途には推奨しない。




This tiny AI model from Ai2 sounds like a game-changer! Beating Google and Meta? That's wild! 🚀 Curious how it performs in real-world apps.












