左右滑动查看更多
模型名称 | 提供商 | 参数 |
得分 |
发布日期 |
对比 |
---|---|---|---|---|---|
DeepSeek-V3 在多项评估中超越了 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,性能匹敌 GPT-4 和 Claude-3.5-Sonnet 等顶级闭源模型。
|
DeepSeek | 671B | 5.4 | 2025-03-24 | |
o4-mini 在高模式下,具有更长的响应时间和更强的推理能力。
|
OpenAI | N/A | 6.2 | 2025-04-16 | |
腾讯发布的最新开源 MoE 模型
|
Tencent | 80B | 5.1 | 2025-06-27 | |
Moonshot AI 推出的最新模型,具有增强的编码能力和在通用 Agent 任务中的卓越性能,基于 MoE 架构构建。
|
Moonshot | 1000B | 5.5 | 2025-07-11 | |
百灵大语言模型是一款通用型LLM,已完成生成式AI备案流程,基于万亿级标记进行训练。其版本号为Bailing-Pro-20250225。
|
Ant Group | N/A | 4.4 | 2025-02-25 | |
科大讯飞发布的推理模型Spark X1,在国内领先的数学任务基础上,针对推理、文本生成和语言理解等通用任务的性能,对标OpenAI o系列和DeepSeek R1。
|
iFLYTEK | N/A | 5.4 | 2025-07-20 | |
MiniMax-Text-01 是一个强大的语言模型,拥有总计 4560 亿个参数,其中每个 token 激活 459 亿个参数。为了更好地发挥模型的长上下文能力,MiniMax-Text-01 采用了一种混合架构,结合了 Lightning Attention、Softmax Attention 和专家混合(MoE)技术。
|
MiniMax | 456B | 3.8 | 2025-01-15 | |
GLM 发布的新 GLM-4.5 推理模型系列
|
Zhipu AI | 110B | 5.6 | 2025-07-29 | |
Minimax 发布的全球首个人工智能开源权重大规模混合注意力推理模型
|
MiniMax | 456B | 5.5 | 2025-06-17 | |
Qwen3 是 Qwen 系列的最新一代大型语言模型,提供了一套全面的密集和专家混合(MoE)模型。
|
Alibaba | 235B | 5.7 | 2025-07-22 |