网界
网络资讯 网界财经 科技人物 数据洞察 行业动态 智能出行 智能手机 数码极客 商业资讯

DeepSeek或春节发布新模型?新论文直指大模型短板,V3.2表现亮眼

2026-02-14来源:互联网编辑:瑞雪

近日,科技领域传来新动态,DeepSeek正对其网页端和APP进行新功能测试,此次测试聚焦于全新的长文本模型结构,该结构可支持高达1M的上下文。不过,其API服务目前依旧保持为V3.2版本,仅支持128K上下文。

这一动作引发外界诸多猜测,不少人认为DeepSeek或许会在今年春节期间再次带来惊喜,发布新模型,有望重现去年春节时引发行业轰动的盛况。此前,DeepSeek在模型研发方面就动作不断,展现出强大的技术实力与创新能力。

今年1月12日,DeepSeek联合北京大学共同完成了一篇颇具影响力的论文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大语言模型稀疏性的新维度),梁文锋位列作者名单。论文聚焦于当前大语言模型存在的记忆力不足问题,创新性地提出了“条件记忆”这一概念,为解决该问题提供了新的思路与方向。基于此,行业普遍推测DeepSeek的下一代模型V4极有可能在今年春节前后正式亮相。

回顾去年12月1日,DeepSeek曾一次性发布两个正式版模型,分别是DeepSeek-V3.2和DeepSeek-V3.2-Speciale。目前,官方网页端、App以及API均已更新为正式版DeepSeek-V3.2,而Speciale版本则以临时API服务的形式开放,主要用于社区评测与研究工作。

据了解,DeepSeek-V3.2在研发过程中有着明确的目标,即平衡推理能力与输出长度,使其更贴合日常使用场景,例如问答场景以及通用Agent(智能体)任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2展现出不俗的实力,达到了GPT-5的水平,仅稍逊于Gemini-3.0-Pro。与Kimi-K2-Thinking相比,V3.2的输出长度大幅降低,有效减少了计算开销,同时也显著缩短了用户的等待时间。

春节前夕字节再发力,豆包大模型2.0升级,推理代码能力双提升
2月14日,这股大模型“井喷”潮迎来高峰:字节在连续发布Seedance 2.0视频模型、Seedream 5.0 Lite图像模型之后,官宣推出豆包大模型2.0(Doubao-Seed-2.0)系列。贝壳…

2026-02-14