Ai2がコンパクトなAIモデルを発表、GoogleやMetaのライバルを上回る

小型AIモデルが今週話題に。
木曜日、非営利のAI研究グループAi2は、10億パラメータのモデルOlmo 2 1Bを発表。Google、Meta、Alibabaの同規模モデルを複数のベンチマークで上回る。パラメータ(重み)はモデルの性能を形成する内部要素。
Olmo 2 1Bは、Hugging FaceプラットフォームでApache 2.0ライセンスの下、無料で利用可能。ほとんどのモデルと異なり、Ai2は開発に使用したコードとデータセット(Olmo-mix-1124、Dolmino-mix-1124)を公開し、完全再現が可能。
小型モデルは大型モデルに比べパワーは劣るが、高性能ハードウェアを必要とせず、標準的なラップトップや消費者向けデバイスで利用できるため、開発者やホビーストに最適。
最近、MicrosoftのPhi 4推論ファミリーやQwenの2.5 Omni 3Bなど、小型モデルのリリースが急増。Olmo 2 1Bを含むほとんどのモデルは、最新のラップトップやモバイルデバイスでスムーズに動作。
Ai2によると、Olmo 2 1Bは公開データ、AI生成データ、キュレーションされたソースから4兆トークンでトレーニング。100万トークンは約75万語に相当。
GSM8Kなどの算術推論テストで、Olmo 2 1BはGoogleのGemma 3 1B、MetaのLlama 3.2 1B、AlibabaのQwen 2.5 1.5Bを上回る。TruthfulQA(事実の正確性ベンチマーク)でも優れる。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
Berkeley, CA | 6月5日
今すぐ予約
このモデルは、7、13、32Bモデルの高品質事前トレーニングと高品質アニーリングを踏襲し、4Tトークンの高品質データで事前トレーニング。トレーニングの1000ステップごとに中間チェックポイントをアップロード。
ベースモデルにアクセス:https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) 2025年5月1日
Ai2は、Olmo 2 1Bにはリスクがあると警告。すべてのAIモデルと同様、有害またはセンシティブな内容、不正確な情報を生成する可能性。商業用途には推奨しない。
関連記事
LLMの中には何がありますか? AI2 Olmotraceはソースを「追跡」します
大規模な言語モデル(LLM)の出力とそのトレーニングデータの間の接続を理解することは、常にエンタープライズITにとって少しパズルです。今週、AIのアレン研究所(AI2)は、この関係を分裂させることを目的としたオルモトレースと呼ばれるエキサイティングな新しいオープンソースイニシアチブを開始しました。
AIが2026年に新たな発見を解き放つ、OpenAI CEOが語る
最近のエッセイ「穏やかなシンギュラリティ」で、火曜日に公開されたOpenAI CEOのサム・アルトマンは、今後15年間でAIが人類に与える変革的な影響についてのビジョンを述べました。アルトマンのエッセイは、人工汎用知能(AGI)に対する楽観主義とその到来に対する慎重な見方を融合しています。こうした先進的な著作で知られる彼は、AGIが仕事、エネルギー、社会構造を再構築すると想像しています。彼のエッセ
トランプの台頭:政治専門家が彼の大統領職をどのように誤判断したか
政治において、予測はしばしば的外れになります。専門家、アナリスト、コメンテーターは選挙結果や政治トレンドを頻繁に予測しますが、歴史は彼らの誤りを示しており、特にドナルド・J・トランプの大統領への上昇において顕著です。この記事では、トランプの大統領職を不可能とみなした人々の驚くべき誤判断を振り返り、彼らの大胆な主張、その背景、そして不可能が現実となった教訓を探ります。主なポイント多くの専門家やセレブ
コメント (0)
0/200
小型AIモデルが今週話題に。
木曜日、非営利のAI研究グループAi2は、10億パラメータのモデルOlmo 2 1Bを発表。Google、Meta、Alibabaの同規模モデルを複数のベンチマークで上回る。パラメータ(重み)はモデルの性能を形成する内部要素。
Olmo 2 1Bは、Hugging FaceプラットフォームでApache 2.0ライセンスの下、無料で利用可能。ほとんどのモデルと異なり、Ai2は開発に使用したコードとデータセット(Olmo-mix-1124、Dolmino-mix-1124)を公開し、完全再現が可能。
小型モデルは大型モデルに比べパワーは劣るが、高性能ハードウェアを必要とせず、標準的なラップトップや消費者向けデバイスで利用できるため、開発者やホビーストに最適。
最近、MicrosoftのPhi 4推論ファミリーやQwenの2.5 Omni 3Bなど、小型モデルのリリースが急増。Olmo 2 1Bを含むほとんどのモデルは、最新のラップトップやモバイルデバイスでスムーズに動作。
Ai2によると、Olmo 2 1Bは公開データ、AI生成データ、キュレーションされたソースから4兆トークンでトレーニング。100万トークンは約75万語に相当。
GSM8Kなどの算術推論テストで、Olmo 2 1BはGoogleのGemma 3 1B、MetaのLlama 3.2 1B、AlibabaのQwen 2.5 1.5Bを上回る。TruthfulQA(事実の正確性ベンチマーク)でも優れる。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
TechCrunch Sessions: AIでの展示
TC Sessions: AIであなたの作品を1,200人以上の意思決定者に紹介。5月9日まで、または枠が埋まるまで利用可能。
Berkeley, CA | 6月5日 今すぐ予約このモデルは、7、13、32Bモデルの高品質事前トレーニングと高品質アニーリングを踏襲し、4Tトークンの高品質データで事前トレーニング。トレーニングの1000ステップごとに中間チェックポイントをアップロード。
— Ai2 (@allen_ai) 2025年5月1日
ベースモデルにアクセス:https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2は、Olmo 2 1Bにはリスクがあると警告。すべてのAIモデルと同様、有害またはセンシティブな内容、不正確な情報を生成する可能性。商業用途には推奨しない。












