当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

3个月前 (07-18)DeepSeek技术交流311

DeepSeek终于丢了开源第一王座,但继任者依然来自中国

Kimi K2以开源领域榜首、总榜第五的傲人成绩,与顶尖闭源模型Grok 4、GPT 4.5展开激烈角逐——在连续对话能力上独占鳌头,编程与复杂提示处理能力稳居第二梯队前列。这款源自DeepSeek V3架构却更精于“精打细算”的国产模型,正凭借GitHub 5.6K星标与10万下载量的辉煌战绩,向世界宣告:开源与闭源的性能鸿沟已被彻底打破,中国力量正重塑AI领域的竞技版图。

AI智能生成内容引发热议,数千人盲投之下,Kimi K2力压DeepSeek,一举夺得全球开源模型桂冠!海外网友沸腾了,评论区瞬间变身夸夸盛宴:

今日,竞技场最新排名揭晓——
Kimi K2,开源榜首,总榜第五,紧追马斯克麾下的Grok 4等顶尖闭源劲敌。

其单项能力同样不容小觑,与一众闭源模型展开激烈交锋:
连续多轮对话能力并列第一,o3与Grok 4均屈居第四;
编程能力稳居第二,与GPT 4.5、Grok 4并驾齐驱;
复杂提示词处理能力同样位列第二,与o3、4o同属第一梯队;
……
眼尖的网友还发现,总榜TOP 10中,唯二开源模型均来自中国(DeepSeek R1总榜第八)。

即便抛开榜单光环,Kimi K2新模型在过去一周同样炙手可热:
从实打实的数据来看,发布仅一周,Kimi K2便在开源社区掀起热潮,收获了极高的关注度与下载量。
GitHub标星5.6K,Hugging Face下载量近10万,这还不包括其在中国社区的广泛应用。

就连AI搜索引擎明星创企Perplexity的CEO也亲自为其站台,透露:
Kimi K2在内部评估中表现卓越,Perplexity计划基于K2模型进行后续训练。

由于访问用户激增,Kimi官方不得不发布公告:
访问量过大+模型体积庞大,导致API响应缓慢。

……
然而,在一片欢呼声中,关于“Kimi K2采用DeepSeek V3架构”的质疑声再度甚嚣尘上。

对此,我们找到了Kimi团队成员对K2架构的回应。
总结如下:确实继承了DeepSeek V3架构,但后续进行了一系列参数调整。
p.s. 以下分享均来自知乎@刘少伟,内容经概括总结如下~
起初,团队尝试了多种架构方案,最终发现V3架构最为出色(其他方案顶多与之持平)。
于是问题变为:是否要为了不同而不同?
经过深思熟虑,团队给出了否定答案。理由有二:
一是V3架构已经过大规模验证,无需强行“标新立异”;二是团队与DeepSeek一样,训练和推理资源有限,而V3架构符合成本预算。
因此,他们选择完全继承V3架构,并引入适合自身的模型结构参数。
具体而言,K2的结构参数改动有四点:
增加专家数量:团队验证,在激活参数量不变的情况下,MoE总参数增加有助于loss下降。
注意力头head数减半:减少head数节省的成本,恰好抵消MoE参数增大带来的开销,且对效果影响甚微。
仅保留第一层Dense:仅第一层为dense,其余均用MoE,结果对推理几乎无影响。
专家无分组:通过自由路由+动态重排(EPLB)应对负载不均衡,同时使专家组合更灵活,模型能力更强。

最终得到的推理方案是,在相同专家数量下:
尽管总参数增大至1.5倍,但除去通信部分,理论的prefill和decode耗时均更小。即便考虑与通信overlap等复杂因素,该方案成本也不会比V3显著增加。
这是一种更“精打细算”的结构调优。
这种放弃自身模型架构路线,彻底沿用DeepSeek路线的做法,被国内网友评价为“相当大胆”。
△来源:知乎网友@蛙哥
OK,厘清Kimi与DeepSeek架构之争后,我们再将目光拉回最新排名。
开源追平或超越闭源的浪潮正汹涌而来
一个显而易见的趋势是:“开源=性能弱”的刻板印象正在被打破,开源模型正日益强大。
不仅榜单整体排名上升,而且分数差距也在逐渐缩小。
细看之下,模型TOP 10总分均超1400,开源与闭源几乎站在同一起跑线上。
而此次夺得开源榜首的Kimi K2,总分已非常接近Grok 4、GPT 4.5等顶尖闭源模型。

换句话说,以往我们或许还需在模型能力与成本之间做出取舍,但随着开源力量的崛起,多思考一秒都是对开源的不尊重(doge)。
与此同时,越来越多的行业人士也表达了对开源崛起的判断。
艾伦人工智能研究所研究科学家Tim Dettmers表示:
开源击败闭源将愈发普遍。

Perplexity CEO也多次在公开场合表示:
开源模型将在塑造AI能力的全球扩散路径中发挥关键作用。它们对于因地制宜地定制和本地化AI体验至关重要。
而在已逐渐崛起的开源模型领域,TOP 10中唯二开源且均为国产模型的含金量仍在持续提升。



“DeepSeek终于丢了开源第一王座,但继任者依然来自中国” 的相关文章

DeepSeek收录公司信息有误?如何快速纠错?

DeepSeek收录公司信息有误?如何快速纠错?

DeepSeek收录公司信息有误?如何快速纠错?如果发现DeepSeek收录的公司信息有误,可通过其官方反馈渠道(如官网客服、邮件或帮助中心)提交修正申请,提供正确的企业名称、营业执照等证明材料以加速...

deepseek教程新手入门指南

deepseek教程新手入门指南

导读•AI导读带你速览精华"从注册入门到科研商业实战,DeepSeek教程像钥匙般解锁大模型的每个层级——先教你用自然语言对话获取精准答案,再带你用prompt技巧雕琢输出,最终让AI成为论...

拉芳家化:2025年初开始在办公流程中使用DeepSeek技术

拉芳家化:2025年初开始在办公流程中使用DeepSeek技术

证券之星消息,拉芳家化(603630)07月17日在投资者关系平台上答复投资者关心的问题。投资者:为评估公司价值,请说明1.是否在办公、研发、客户服务或业务流程中应用AI技术?(a)是(b)否2.若应...

泰州市姜堰区蒋垛镇:“Deepseek+AI”青年大讲堂锻造乡村振兴生力军

泰州市姜堰区蒋垛镇:“Deepseek+AI”青年大讲堂锻造乡村振兴生力军

7月26日,江苏省泰州市姜堰区蒋垛镇首期“红色大讲堂”培训班开课。讲堂秉持按需施教、学用结合的原则,通过每月一期的集中授课、实践锻炼等形式,全面提升年轻干部综合素质,着力锻造一支懂技术、善作为、能担当...

什么!?原来DEEPSEEK也要用到氮气?

什么!?原来DEEPSEEK也要用到氮气?

DEEPSEEK拥有强大的AI运算系统能够达到如此强大的运算能力背后必须要有高端的AI芯片而高端的AI芯片的制程就需要用到高纯度的氮气支持高端的芯片制造对于氮气的要求非常严格需要99.999-99.9...

DeepSeek在LinkedIn招聘10职位 希望吸引境外人才

DeepSeek在LinkedIn招聘10职位 希望吸引境外人才

格隆汇7月3日|全球人工智能(AI)人才竞争白热化,中国AI初创公司DeepSeek加大招聘力度,上周在职场社交平台领英(LinkedIn)发布10个职位,为几个月来首次,反映其可能正寻求从境外吸引人...