モデル名 | プロバイダー | パラメーター |
スコア |
発売日 |
比較する |
---|---|---|---|---|---|
DeepSeek-V3は、Qwen2.5-72BやLlama-3.1-405Bなどのオープンソースモデルを複数の評価で上回り、GPT-4やClaude-3.5-Sonnetなどのトップクラスのクローズドソースモデルと同等の性能を発揮します。
|
DeepSeek | 671B | 5.4 | 2025年3月24日 | |
o4-mini の high mode では、応答時間が長く、推論能力が強くなります。
|
OpenAI | N/A | 6.2 | 2025年4月16日 | |
テンセントがリリースした最新のオープンソースMoEモデル
|
Tencent | 80B | 5.1 | 2025年6月27日 | |
Moonshot AIが発売した最新モデルで、強化されたコーディング機能と一般的なエージェントタスクにおける優れたパフォーマンスを備え、MoEアーキテクチャに基づいて構築されています。
|
Moonshot | 1000B | 5.5 | 2025年7月11日 | |
バイリン大言語モデルは、生成AIの登録プロセスを完了した汎用LLMであり、数兆のトークンでトレーニングされています。バージョン番号はBailing-Pro-20250225を採用しています。
|
Ant Group | N/A | 4.4 | 2025年2月25日 | |
iFlytekがリリースした推論モデルSpark X1は、国内をリードする数学的タスクを基盤として、推論、テキスト生成、言語理解などの汎用タスクの性能を、OpenAI oシリーズおよびDeepSeek R1と比較しています。
|
iFLYTEK | N/A | 5.4 | 2025年7月20日 | |
MiniMax-Text-01 は、合計4560億のパラメータを持つ強力な言語モデルで、1トークンあたり459億のパラメータが活性化されます。モデルの長コンテキスト機能をより良く引き出すために、MiniMax-Text-01 は、Lightning Attention、Softmax Attention、Mixture-of-Experts(MoE)を組み合わせたハイブリッドアーキテクチャを採用しています。
|
MiniMax | 456B | 3.8 | 2025年1月15日 | |
GLMがリリースした新しいGLM-4.5推論モデルシリーズ
|
Zhipu AI | 110B | 5.6 | 2025年7月29日 | |
Minimaxがリリースした世界初のオープンウェイト大規模ハイブリッドアテンション推論モデル
|
MiniMax | 456B | 5.5 | 2025年6月17日 | |
Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルと専門家混合(MoE)モデルの包括的なスイートを提供します。
|
Alibaba | 235B | 5.7 | 2025年7月22日 |