原本预计在 2026 年春节上演的中国 AI 大戏,延迟到了五一假期前。
这周五,DeepSeek V4 千呼万唤始出来。
同样在这周,Qwen、Kimi、小米、腾讯都不约而同拿出了自己最新的代表作。

这件事之所以值得说,是因为放在更大的行业背景里看,它其实是反常的。硅谷头部公司正在变得越来越封闭,OpenAI 早已不再公开训练细节,Anthropic 和 Google 的核心方法同样讳莫如深,社区只能靠猜测和拼凑来推断它们的技术路线。连在舞台上握手都不太可能了

英伟达 GTC 2026 上用来展示下一代芯片推理性能的中国模型,是这两家。

在海外开发者社区里,当人们讨论中国开源模型时,Kimi 和 DeepSeek 的确越来越频繁地被放进同一张表里。
它们撞上的不是彼此这也让 DeepSeek 和 Kimi 的关系变得有点微妙。它们当然是竞争对手,但在更大的模型生态里,又共同把中国开源模型推到了一个更难被忽视的位置。
它们对闭源模型的压力,不只来自某一次 benchmark,而来自成本、可部署性、开源权重和技术扩散速度这些更慢、更底层的变量。
所以,Kimi 到底有没有在故意撞车 DeepSeek?
大概率没有。万亿参数的 MoE 要做,长上下文的注意力机制要改,训练效率的优化器要换,国产芯片的适配要啃,开源要开得真诚而不是做防御性姿态。这些不是“选项”,而是“必经之路”。
两家公司都在认真地做底层技术,也都选择把关键进展放到公开语境里,于是就一次又一次地在同一个十字路口碰面。
不是它们太默契,是路太窄了。
至于下一次“撞车”,大概已经在路上了。
如果没猜错的话,Kimi 让大模型的文本和视觉能力齐头并进的技术方案,将启发更多中国开源纯文本模型长出“眼睛”,一起看到更远、更大的世界。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105620