DeepSeek低调发布3.2版本:曾经的顶流大模型,如今热度减退了?
前不久,DeepSeek 悄悄更新了全新的V3.1 版本,这次更新全无公告,只在微信群里做了通知,既没有官方预告,也未同步发布基准测试榜单,仅以“v3.1+”这样保守的命名悄然上线。
不得不说,DeepSeek 的低调更新方式,使其在大模型领域也就此一家了。与之形成鲜明对比的是,R1 在大多数人的心目中排名前五,与开启时代的GPT4 等模型并列,其在全球范围内的影响力不容小觑。DeepSeek的低调更新,或许是一种策略,避免过度曝光带来的负面影响,但同时也导致了部分网友的“过山车式”的误解。
年初DeepSeek 横空出世,国内网友对其的关注度极高,媒体营销号纷纷跟风,先是不遗余力地夸赞,蹭热度,无脑吹捧,待热度稍降后又猛然转向,开始痛批营销炒作,自诩独立清醒。然而,这些营销号并未真正了解DeepSeek 的更新规律,便妄下结论,认为其落后,甚至近期又衍生出“DeepSeek 从年初的‘国运级’到现在的无人问津”等荒谬评价,让DeepSeek 陷入舆论风波。
因此,本篇文章除了想带各位看看如此低调的更新都有什么变化以外,还想和各位探讨一下:Deepseek 真的无人问津了吗?
首先,我们先简单总结一下本次V3.1 的都有那些更新。先说优点,DeepSeek V3.1 在性能上有了显著提升,它在Token 使用上更加高效,避免了旧版本可能出现的小概率死循环和反复验算问题。在字符能力方面,V3.1在处理单词缩写、岛屿面积、三维投影、字母组合等任务时,得分和稳定性都有所提高,但在编程能力上提升不明显。
不过,V3.1 也存在一些不足。首当其冲就是幻觉问题依旧突出,在处理年报总结、魔方旋转等需要提取关键信息或生成大量中间数据的题目时,容易出错。此外,V3.1 在面对数学规律推导、符号重定义等问题时,有“偷懒”倾向,推理几次后就放弃,甚至直接表示“不会做”。
其次,更让人困扰的是,V3.1 的语言表达出现了中英夹杂问题,尤其在推理到一定长度后,频繁切换语言,给阅读带来极大干扰。
简单说完3.1 都更新了什么之后,笔者想重点探讨一下最近甚嚣尘上的话题,DeepSeek 真的“无人问津”了吗?
笔者发现目前在谈到DeepSeek热度降低的话题下,有不少人都会下意识的“忘记”DeepSeek 的开源属性,或者说没有理解开源的意义。
DeepSeek 的开源,如同智能手机时代初期,人们惊喜发现手机不仅能打电话,还能畅玩高画质游戏,为生活增添乐趣。这不仅是功能的拓展,更是技术落地的创新。但DeepSeek 的体验与质量,如同手机游戏一样,未必人人叫好。至于你是否选择使用,能否尽情享受,那完全是另一回事了。
而一但开源就会有显著的分流效应,现在有大量的用户还在使用DeepSeek。但是并不是通过DeepSeek 进入的,而是在腾讯、百度等大型互联网平台所推出的客户端中进行操作。这种现象导致了DeepSeek 自身的用户流量和关注度被分散到了不同的平台之上。而且,随着智能家电等各类设备的普及,越来越多的AI 应用程序开始集成DeepSeek 大模型,这虽然从一定程度上扩大了其应用范围,但也进一步削弱了其官方客户端的用户粘性和活跃度。
各位不妨关注一下最近使用的各种AI 助手大多都有集成DeepSeek,就比如,腾讯元宝、纳米ai、百度地图等等等等。
其次是DeepSeek 自身客户端和网页体验不佳,这也确实是问题。据用户反馈,DeepSeek 在这方面似乎并没有给予足够的重视,可能由于缺乏相关经验或者人力不足等原因,导致其客户端和网页存在诸多问题。例如,用户经常抱怨在使用过程中,模型回答到一半时会自行删除内容,这种情况很大程度上是因为其敏感词机制不够完善所引起的。但是幻方又确实不靠这个盈利,人家只是顺手做出来,又免费开源给全世界使用,这方面也确实没啥可指责的。但是客观上来讲,与之形成鲜明对比的是,其他几家大厂在这一方面经过长期的发展和积累,已经形成了较为成熟和完善的处理机制,能够更好地满足用户的需求和期望。因此,DeepSeek 在用户体验上的不足,也成为了其热度下降的一个重要因素。
但是我们话又说回来,作为一个完全开源的大模型,因为敏感词审核机制造成的问题,反而容易解决,用户直接给它部署到本地就行了嘛。
再者,其他竞争对手模型的快速进步也是不可忽视的原因之一。在AI 大模型领域,技术更新换代的速度极快,各厂商之间的竞争异常激烈。在过去的几个月里,豆包大模型推出了1.6 版本,其能力得到了大幅度的提升;Kimi 的K2 版本同样展现出了明显的进步;马斯克的Grok 4 声称在各个方面都能达到超过博士水平的高度,虽然在实际使用中可能存在一定程度的夸大,但也不容小觑;还有GPT-5 以及谷歌的Gemini 2.5 等,都在不断地推陈出新,快速提升着自身的能力和性能。
在这种情况下,如果以半年前的DeepSeek R1 版本与其他最新的模型进行比较,确实会显得有些落后。不过,DeepSeek 并没有因此而停滞不前,据悉,其R2 版本正在积极研发和筹备之中,有望在不久的将来发布,届时有望再次超越众多竞争对手,重新夺回领先地位。
从笔者进一步认为,更宏观的角度来看,DeepSeek的发展具有重要的国运级意义。在全球科技竞争日益加剧的背景下,美国对其他国家在AI 领域实施了一定程度的封锁和限制。然而,在这种不利的局面下,DeepSeek依然凭借着自身的努力和创新,利用相对落后的芯片资源,在今年年初成功地开发出了在当时能够媲美美国众多AI大模型的高性能模型。而且,DeepSeek是开源的,而且是“真·开源”,是人工智能业界最近几年含金量最高,技术密度最大的开源。在DeepSeek 开源周里,每一个新东西出来都是业界震动:原来真的有企业愿意默默深耕AGI 基础建设;原来,开源模式真的能不附加任何协议束缚,为开发者提供极大便利。
这种模式在行业内实属罕见,凸显了DeepSeek 对技术共享与协作的重视。相较于OpenAI 近期的“开源周”,更像是“CloseAI 营销周”,缺乏实际技术推进,更多是在制造热度。DeepSeek 的开源策略,不仅体现了其对推动行业发展、构建开放创新生态的承诺,也反映出其在技术研发上的自信与实力。这种扎实做研究、真诚做开源的态度,值得每一位大模型从业者学习与借鉴deepseek。原文出处:DeepSeek低调发布3.2版本:曾经的顶流大模型,如今热度减退了?,感谢原作者,侵权必删!