选项
首页 导航箭头 Al模型列表 导航箭头 DeepSeek-R1
模型参数数量
671B
模型参数数量
所属机构
DeepSeek
所属机构
开源
许可证类型
发布时间
2025-01-20
发布时间
模型介绍
DeepSeek-R1 在后训练阶段广泛采用了强化学习技术,仅使用少量标记数据就显著提升了模型的推理能力。在涉及数学、编码以及自然语言推理的任务中,其表现与OpenAI的o1官方发布版相当。
语言理解能力 语言理解能力
语言理解能力
可理解复杂语境并生成逻辑连贯的句式,但在语气把控上偶有偏差。
7.5
知识覆盖范围 知识覆盖范围
知识覆盖范围
覆盖超200个专业领域,实时整合最新科研成果与跨文化知识。
9.0
推理能力 推理能力
推理能力
能完成三步以上的逻辑推演,但处理非线性关系时效率下降。
8.5
相关模型
DeepSeek-V2-Chat-0628 DeepSeek-V2 是一种强大的混合专家模型(Mixture-of-Experts),其特点是训练成本经济且推理高效。它总共有2360亿个参数,每次生成每个标记时激活其中的210亿个参数。与DeepSeek 67B相比,DeepSeek-V2 性能更强,同时节省了42.5%的训练成本,将KV缓存减少了93.3%,并将最大生成吞吐量提高了5.76倍。
DeepSeek-V2.5 DeepSeek-V2.5 是一个升级版本,结合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。新模型集成了前两个版本的通用和编码能力。
DeepSeek-V3-0324 在多项评估中,DeepSeek-V3的表现优于其他开源模型,如Qwen2.5-72B和Llama-3.1-405B,并且其性能与顶级闭源模型,如GPT-4和Claude-3.5-Sonnet相当。
DeepSeek-V2-Lite-Chat DeepSeek-V2 是由 DeepSeek 提出的强大混合专家模型(MoE),DeepSeek-V2-Lite 是它的轻量版。
DeepSeek-V2-Chat DeepSeek-V2 是一种强大的混合专家模型(MoE),以其经济的训练和高效的推理能力著称。它总共有2360亿个参数,每次生成每个标记时激活其中的210亿个参数。与DeepSeek 67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,将KV缓存减少了93.3%,并将最大生成吞吐量提高了5.76倍。
相关文档
谷歌Gemini代码助手增强AI编程代理能力 Gemini Code Assist(谷歌AI编程助手)正在预览模式中推出革命性的"智能体"功能。在最近的Cloud Next大会上,谷歌展示了这款工具如何通过AI"智能体"处理复杂编程任务——从谷歌文档的产品需求直接生成完整应用,或轻松实现跨语言代码转换。更令人惊喜的是,现在开发者还能在Android Studio等集成环境中使用该功能。面对GitHub
微软在Build大会上开源命令行文本编辑器 微软在Build 2025全面拥抱开源在今年举办的Build 2025开发者大会上,微软在开源领域祭出多项大动作,重磅发布了包括全新Windows命令行文本编辑器Edit在内的多款关键工具。开源战略:不止于商业收益虽然开源软件不会直接为微软创收,但这堪称最犀利的市场调研手段——更是引导用户使用付费产品的妙招。通过开源社区互动,微软能获取真实用户反馈、功能需求
OpenAI升级其Operator Agent的AI模型 OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
谷歌的人工智能未来基金可能需要谨慎行事 谷歌的新AI投资计划:监管审查中的战略转变谷歌最近宣布成立的人工智能未来基金标志着这家科技巨头在塑造人工智能未来的过程中迈出了大胆一步。这项计划旨在为初创企业提供急需的资金、早期接触仍在开发中的尖端AI模型以及来自谷歌内部专家的指导。虽然这不是谷歌首次涉足初创企业生态系统——到目前为止,它已经投资了38家AI公司,包括备受瞩目的收购案如DeepMind、Wa
AI YouTube缩略图发电机:增强视频视图 AI在当今的数字景观中,AI的力量在YouTube缩略图中,迷人的YouTube缩略图对于引起观众的关注至关重要。由于数百万个视频竞争点击,因此醒目的缩略图可以使一切与众不同。 AI YouTube缩略图发电机已经成为GAM
模型比较
开始比较
返回顶部
OR