继两个月前发布实验性的DeepSeek-V3.2-Exp后,DeepSeek今日宣布同时发布两个正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。目前,官方网页端、App和API均已更新为正式版DeepSeek-V3.2,供广大用户使用。Speciale版本目前仅以临时API服务形式开放,主要供社区评测与研究。
据悉,DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少了计算开销与用户等待时间。
DeepSeek-V3.2-Speciale 的目标是将开源模型的推理能力推向极致,探索模型能力的边界。V3.2-Speciale是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力,在主流推理基准测试上的性能媲美 Gemini-3.0-Pro。更令人瞩目的是,V3.2-Speciale模型斩获IMO2025(国际数学奥林匹克)、CMO2025(中国数学奥林匹克)、ICPCWorldFinals2025(国际大学生程序设计竞赛全球总决赛)及IOI2025(国际信息学奥林匹克)金牌。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平。
在高度复杂任务上,Speciale模型大幅优于标准版本,但消耗的Tokens也显著更多,成本更高。目前,DeepSeek-V3.2-Speciale仅供研究使用,不支持工具调用,暂未针对日常对话与写作任务进行专项优化。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】