> 自媒体 > (AI)人工智能 > 国产算力机会来了!DeepSeek V4全量开源,华为寒武纪赢麻了
国产算力机会来了!DeepSeek V4全量开源,华为寒武纪赢麻了
来源:雷科技
2026-04-28 15:50:38
110
管理

雷科技(ID:leitech)算了下,距离DeepSeek上一次大版本更新已经过去484天,虽然期间一直有小版本更新,也引发了不少讨论,但这终究不是大家期待的V4。

图源:X

DeepSeek V4的关注度实在太高,以至于DeepSeek不得不在官方推文下留言:

请仅以我们官方账号发布的 DeepSeek 新闻为准。其他渠道的声明并不代表我们的观点。

DeepSeek发布这个声明的原因,是此前有人谣传DeepSeek迫于压力将不会开源V4版本(或仅开源小参数版本)。这个谣言甚至在一定程度上引发了开源AI社区的恐慌,不过现在这些谣言都被DeepSeek V4的全模型全量开源击碎了,而且还是大家熟悉的Apache 2.0许可证。

有外国网友直接在底下留言:开源人工智能之王回归了。

图源:雷科技

这种做法的效果是显著的,基于昇腾950超节点,DeepSeek V4-Pro在8K输入场景下可实现约20ms的单token解码时延,单卡Decode吞吐约4700 TPS,V4-Flash则可实现约10ms的时延,单卡Decode吞吐约1600 TPS,是英伟达此前可公开出口给中国的H20算力卡的2.87倍。

这些数字的意义,不是说让国产芯片的海报上又增添几串数字,而是让市场第一次可以用更接近真实应用的方式去评估国产AI算力。而且也告诉市场,大模型推理不是简单看芯片峰值算力,还要看显存访问、并行调度、低精度计算、通信效率和推理框架的协同。

虽然英伟达的算力卡性能确实称得上全球最强,但是其真正的核心是CUDA生态,所以国产芯片想要追赶英伟达,就不能只靠堆硬件参数(制程限制下一时半会儿也追不上),而是要让模型、框架和应用一起迁移过去,打造真正的软硬件协同。

可以说,DeepSeek V4给Qwen、豆包、kimi等国产顶级大模型提前蹚了路,告诉大家:国产芯片是真的行。

CPU也被DeepSeek重新点燃

在写这篇文章查询资料的时候,小雷还看到了一则新闻:英特尔财报发布,Q1营收超预期,盘前股价飙升近30%。在英特尔的财报中,最值得关注的就是数据中心与人工智能业务部门(DCAI)营收达51亿美元,同比增长22%。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
卿嫣(普通会员)
文章
1922
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105719

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索