首先,为昇腾挑几个对比对象

对比对象选:
NVIDIA
AMD
Intel

核心代表产品:

Nvidia H100

Nvidia B200

AMD MI300X

Intel Gaudi 3

一、技术能力对比
单卡算力(理论峰值)

芯片 定位 FP16/BF16算力 特点
H100 训练主力 ~700 TFLOPS+ 行业标准
B200 新一代训练王者 > 2 PFLOPS 带宽与规模领先
MI300X 大显存路线 高带宽 + 192GB显存 推理友好
Gaudi 3 性价比路线 主打成本优势
昇腾910C 国产训练主力 公开数据有限 集群化弥补单卡差距

现实情况

单卡性能:
昇腾 ≈ 早期 H100 水平附近(视场景而定)
与 B200 有代差

能效比(Performance/Watt):
Nvidia 仍明显领先

结论:
昇腾单芯片不算顶级,但已经进入“高端训练芯片俱乐部”。

二、训练能力对比
关键指标:大模型训练效率

维度 Nvidia 昇腾 AMD Intel
互联带宽 NVLink极强 自研互联 Infinity Fabric Ethernet
扩展规模 超万卡验证 千卡级成熟 中等 中等
工程成熟度 绝对领先 快速提升 改善中 尚未完全稳定
Nvidia的优势不只是算力,而是:

NVLink + NVSwitch

成熟的大规模集群调度

软件栈深度优化

昇腾目前策略是:用“规模堆叠 + 本土化优化”弥补单卡劣势

在国内超算中心和运营商集群中,昇腾已能支持千卡级训练。

但在万卡级别稳定性与调优经验上,仍落后于 Nvidia。

三、推理能力对比

推理场景:

大模型在线服务

边缘推理

政务与行业AI

昇腾的竞争力反而更强

原因:

国内模型适配优化

本土政企采购优先

成本可控

相比之下:

Nvidia 推理依然最强

AMD 正在发力

Intel Gaudi 更偏成本型

在中国政企推理市场,昇腾是主流选项之一。

四、软件生态对比(决定胜负的关键)
Nvidia
核心壁垒:CUDA
CUDA = 15年开发者沉淀
几乎所有AI框架默认优化对象

优势:

全球科研默认平台

论文优先支持

框架深度融合

AMD

核心平台:ROCm

问题:

兼容性曾经很差

最近两年明显改善

但生态体量仍远小于 CUDA。

华为昇腾

核心软件栈:

CANN

MindSpore

MindX

特点:

对国产模型优化非常积极

与国内大模型厂商深度绑定

正在开源化

问题:

国际开发者接受度低

PyTorch 生态支持度不如 CUDA

部分算子适配成本高

结论:

生态成熟度排名:
Nvidia >> 华为 ≈ AMD > Intel

但在中国本土生态,昇腾影响力非常高。

五、市场格局
全球市场
Nvidia ≈ 绝对霸主 全球AI训练市场份额极高
AMD:第二阵营
Intel:边缘玩家
华为:几乎全部集中在中国及部分友好市场

中国市场

在高端AI芯片受限背景下:昇腾为国产替代核心力量。
在:政府、运营商、金融、电力、国资云
昇腾的渗透率显著提升。

六、战略级定位分析

如果把它们放到“AI算力战争”的格局中:

公司 战略定位
Nvidia 全球AI算力霸主
AMD 挑战者
Intel 转型期
华为昇腾 中国算力自主核心

昇腾的真正意义不只是性能,而是中国AI体系“可持续运行”的关键底座。
这点在地缘环境下极其重要。

七、最终综合评价
技术层面

已经进入世界高端阵营

与最新一代 Nvidia 有代差

集群能力强于单卡能力

生态层面

国内强

国际弱

仍在追赶

市场层面

中国核心玩家

全球非主流

一句话总结

昇腾没有网上说的那么菜,也没有吹的那么强,但它已经是“全球AI算力格局中不可忽视的一极”。

Logo

智能硬件社区聚焦AI智能硬件技术生态,汇聚嵌入式AI、物联网硬件开发者,打造交流分享平台,同步全国赛事资讯、开展 OPC 核心人才招募,助力技术落地与开发者成长。

更多推荐