> 自媒体 > (AI)人工智能 > 成本仅GPT-4 Turbo的1/70,DeepSeek V4为何转投华为昇腾?
成本仅GPT-4 Turbo的1/70,DeepSeek V4为何转投华为昇腾?
来源:热点解读
2026-05-02 20:08:49
125
管理

2.87倍。 这是华为昇腾950PR芯片的单卡算力,与英伟达能卖给中国的阉割版H20之间的差距。

成本的断崖式下降,彻底改变了AI商业化的逻辑。它让DeepSeek能以Apache 2.0协议开源V4,允许企业基于自有硬件私有化部署,而不用担心天价的API调用费。这不仅是技术路线的切换,更是商业模式的颠覆——从依赖云端付费,转向赋能千行百业的基础设施。

当成本和政策优势如此明显,市场的反应速度有多快?

市场用脚投票,81.2万张芯片的份额证明

市场的回答是一个更庞大的数字:81.2万张。这是2025年华为昇腾AI芯片的出货量,它占据了当年国产AI芯片市场**49.2%**的份额,断层式领先。

更关键的是行动。为了迎接DeepSeek V4上线,阿里巴巴、腾讯、字节跳动等云服务巨头,已经提前向华为下达了合计数十万颗昇腾芯片的采购订单。这种规模的集体采购,意味着头部企业不再将国产芯片视为“备胎”,而是作为未来核心算力架构进行战略押注。

市场的选择,验证了国产芯片从“样品”到“商品”,再到“核心商品”的实质性跨越。中国AI芯片的自给率,也从2024年的33%,提升至2025年的35%,并预计在2030年达到76%。一个摆脱外部依赖的算力底座,正在快速成型。

但是,一切真的完美无缺吗?性能追平甚至反超的背后,有没有被忽略的代价?

生态差距与训练短板,繁荣下的客观挑战

繁荣之下,冷静的数据同样存在。尽管在推理端表现出色,但行业分析普遍指出,像V4这样的顶级大模型,其训练环节大概率仍在英伟达GPU上完成。原因在于,在大规模、长周期的模型训练中,华为芯片在集群互联速度和训练稳定性上,仍与国际最顶尖水平存在差距。

另一个难以量化的差距在软件生态。英伟达的CUDA生态经过近20年的打磨,拥有无与伦比的成熟度和开发者支持。而切换至华为的CANN架构,意味着DeepSeek的工程师需要花费数月时间重写底层代码来“填坑”。

从“能用”到“好用”,国产芯片的软件生态仍需大量工程实践和时间来完善。

所以,DeepSeek V4转投昇腾,并非一个简单的“国产胜利”叙事。它是一系列残酷数字——13倍的性能阉割、50%的硬性指标、1/70的成本优势、81.2万张的市场选择——共同作用下的必然结果。

这是一次从“被迫适应”到“主动选择”的战略转身,为中国AI产业在算力自主的道路上,劈开了一条成本可控、供应链安全的现实路径。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
关于作者
你不懂的歌..(普通会员)
文章
1964
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体106458

0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索