“英伟达含量为0” 华为昇腾技术报告公布

今日头条
Toutiao
最新回复:2025年5月20日 3点54分 PT
  返回列表
69240 阅读
17 评论
量子位

部署超大规模MoE这件事,国产芯片的推理性能,已经再创新高了——

不仅是“英伟达含量为0”这么简单,更是性能全面超越英伟达Hopper架构!

而做到这一点的,正是华为昇腾;具体而言,共包含两个产品:

CloudMatrix 384超节点

部署DeepSeek V3/R1,在50ms时延约束下单卡Decode吞吐突破1920 Tokens/s

Atlas 800I A2推理服务器

部署DeepSeek V3/R1,在100ms时延约束下单卡吞吐达到808 Tokens/s,可支持灵活的分布式部署

之所以能够这般,是因为华为昇腾所采取的“以数学补物理”——这种通过数学理论、工具、算法和建模等方式,来弥补硬件和工艺的局限性,实现最大化发挥芯片和系统能力效果。

华为昇腾还不只是“官宣”一下而已,后面更会是全面开源。

不仅已经将昇腾在超大规模MoE模型推理部署的技术报告分享了出来,在一个月时间内,还会把实现这些核心技术的相关代码也都会陆续开源出来。

那么接下来,我们就来深入了解一下华为昇腾背后的技术实力。

在华为昇腾上推理DeepSeek

在深挖华为昇腾背后技术创新之前,我们且需了解一下为什么要这么做。

从2017年Google提出的Transformer架构,到2025年DeepSeek V3/R1的爆红,大语言模型的重心正在从训练开发转向推理应用落地。

推理能力不仅是大模型能力的“试金石”,各大企业已从 “拼模型参数” 转向 “拼推理效率”:

谁能让大模型在实际应用中跑得更快、更稳、更省资源,谁就能在商业化浪潮中抢占先机。

然而,以6710亿参数的DeepSeek V3为例,这类超大规模MoE模型虽然强大,却给硬件带来三大 “成长烦恼”:

内存压力山大

一个模型包含257个专家,每个专家 “体重” 2.5G,普通64GB内存的AI硬件根本 “扛不动”,必须依赖集群协作。

通信开销爆炸

专家分布在不同芯片上,数据传输耗时甚至超过计算时间,就像团队成员频繁开会沟通,效率大打折扣。

架构创新的 “甜蜜负担”

例如 “多头隐式注意力机制(MLA)” 虽然压缩了数据空间,却导致中间变量激增,对芯片的计算能力提出更高要求。

面对这些挑战,华为团队从算子、模型和框架三方面入手,基于昇腾硬件特性,开发了一整套面向集群的大规模专家并行解决方案。

在硬件部署上,华为团队根据不同硬件配置——CloudMatrix 384超节点和Atlas 800I A2推理服务器,针对性地采取了不同的部署优化策略。为解耦Prefill和Decode阶段的时延约束,昇腾采用PD分离部署方式。

在框架侧,昇腾基于vLLM框架,适配DP和EP等多种并行策略,通过Prefill调度分桶、灵衢互联与分层传输等技术来降低调度开销,优化请求下发、调度策略等环节,提升系统性能。

在模型方面,昇腾采用A8W8C16量化策略,其中A8W8使用INT8,C16使用BF16,并针对不同机型进行差异化部署。

针对CloudMatrix 384超节点,其强大的组网能力大幅降低了通信耗时,释放了昇腾芯片的算力。

团队采用大规模EP并行部署,Prefill使用16卡,Decode使用144卡,其中128卡部署路由专家,16卡部署共享专家,MLA部分采用DP部署。

尽管存在时延约束、带宽抢占、调度开销、负载不均等因素影响,最终在50ms时延下,单卡decode吞吐达到1920 Token/s。

针对机群规模较小但部署更加灵活的Atlas 800I A2服务器,华为团队采用多节点互联的方式进行部署。

作为示例,华为团队使用2机16卡进行Prefill,4机32卡进行Decode,每卡部署8个路由专家和1个共享专家,MLA部分采用DP并行,并针对性地使用在真实负载下性能更优的AllGather/ReduceScatter的通信方案。

通过各种策略优化,在100ms时延下,单卡吞吐达到808 Tokens/s。

还有更多优化技术

在推理框架优化方面,针对高并发场景下单点API Server这一性能瓶颈,华为团队设计了API Server横向扩展方案,采用水平扩展技术提升框架的请求响应能力,显著降低用户请求延迟并提高整体服务吞吐量(QPS)。

针对MoE模型中的负载不均问题,基于动态调整专家部署与缩小通信域、热专家冗余部署、实时调度与动态监控机制等核心技术,降低显存占用的同时实现动态负载均衡。

在投机推理技术的工程化应用中,如何将其从小批量低时延场景扩展至高吞吐量场景,是行业面临的共性难题。

华为团队基于昇腾芯片高计算带宽比的硬件特性,提出FusionSpec投机推理引擎,针对性优化多Token预测(MTP)场景下的推理性能:

流程重构

将投机模型后置於主体模型,直接复用主体模型的输出结果与控制参数,大幅减少框架耗时,完美适配参数-数据分离(PD 分离)的分布式部署架构;

轻量步间优化

对投机推理场景中的框架和算子优化实现了轻量步间准备,适配多核并行的全异步框架。

在通信优化方面,华为昇腾也有三大妙招。

首先,针对主流张量并行(TP)方案中AllReduce通信的固有缺陷(通信次数多、数据量大、冗余计算显著),华为团队推出FlashComm通信方案,通过集合通信逻辑重构与算子位置编排,实现低比特、低维度数据通信,在降低通信时延的同时消除冗余计算,最终实现25%通信量的降低和10%推理性能的提升。

其次,在FlashComm基础上,团队进一步提出层内并行转换方案,针对Prefill阶段的MLA层,通过张量并行(TP)与数据并行(DP)的灵活转换,消除节点内卡间求和操作,并利用网络低维特性与量化技术压缩通信数据量,显著降低跨卡通信时延,为大模型分布式推理提供更高效的通信支撑。

第三,通信方面的优化还有一个并发机制的深度挖掘,包括:

计算通信并发

通过Gate函数计算与AllGather通信的解耦,结合共享专家的数据并行(DP)策略,利用昇腾多流机制实现计算与通信的并发执行,最大化硬件利用率;

通信通信并发

针对DeepSeek模型的量化场景,将激活值与scale的传输任务并行处理,在不增加带宽压力的前提下掩盖小数据量通信的启动开销;

通信和权重预并发

利用通信阶段HBM带宽低占用特性,提前将后续算子权重预取至缓存,降低计算阶段的数据搬运开销,实测MLA层计算性能提升10%。

最后,就是在算子方面的优化了。华为团队通过以数学补物理,发展了一系列的优化技术。

针对MLA算子中间变量膨胀与计算量激增的挑战,团队开展硬件亲和性优化:

算法重构:提出AMLA算法,通过二进制编码与存内计算,将乘性计算转换为加性等价形式,直接在全局内存完成输出更新,减少数据搬运耗时;

缓存策略:通过L1/L2缓存精细化管理与K-buffer流水排布,提升缓存命中率与计算效率,实现张量计算与向量计算的相互掩盖;

前序算子融合:在Prefill与Decode阶段分别采用双流并发与算子融合技术,结合权重预取、分块策略及定制指令集优化,构建端到端高效计算链路。

MoE算子方面的优化则包括:

通算融合算子:针对EP部署模式下MoE专家的跨卡调度难题,设计MoeDistributeDispatch/Combine算子,通过 Token 粒度的流水排布与内存语义通信技术,将通信与计算并行化,减少卡间同步开销;

SMTurbo-CPP技术:针对小数据量通信效率问题,通过读写混合、聚合流水等硬件并发技术,提升AllToAll(v)算子的吞吐能力,降低Dispatch/Combine场景时延;

细粒度分级流水算法:基于Atlas 800I A2组网特性,实现节点内/节点间的集合通信并发执行,大幅提升集群环境下的带宽利用率。

性能创新高

在Decode性能测试方面,Atlas 800I A2所采用的方式是:

序列长度为2K输入+2K输出和1K输入+2K输出两种情况

在使能MTP进行推理加速的情况下,由于不同测试数据集和业务场景的MTP接受率不同,性能测试结果会有比较大的偏差。因此在计算时延和吞吐的时候默认按照70%接受率来折算。

TPOT(Decode平均每Token时延)不超过100ms。

具体表现如下所示:

在Prefill上的测试方法是,单batch输入序列长度为2K/1K,通过拼batch的方式拼成一共16K序列。对于序列长度是2K,共8 batch拼成一共16K序列的场景,端到端耗时为631ms,卡均吞吐为1622 Tokens/s。

具体表现如下图所示:

在2025年4月,硅基流动联合华为云基于CloudMatrix 384超节点昇腾云服务和高性能推理框架SiliconLLM,用大规模专家并行最佳实践正式上线DeepSeek-R1。

该服务在保证单用户20 TPS(等效50ms时延约束) 水平前提下,单卡Decode吞吐突破1920 Tokens/s,可比肩H100部署性能。

燃烧的褪毛
1 楼
遥遥领先😂😂😂😂😂😂😂😂
今日雨果
2 楼
。 ❗️华为的政治背景 . 大家看看,华为的祖师爷 - 任正非是怎么❗️吹捧那个"和苏俄里通外国" 犯下叛国罪的李大钊,而李大钊女儿写她父亲的回忆录竟被选入了小学语文课本里。 . Who is 李 大钊? . 《李大钊, 苏联大使馆,皇姑屯,西安事变 》 by 倚天剑 华夏大侠 2016-05-12 19:18 . 1927年4月,奉系张作霖进入北京后,京师警察厅派出300余人突袭苏联大使馆,将住在里面的李 大钊等35人和苏联使馆工作人员16人逮捕。 . 在搜查过程中,警察搜走了七卡车文件档案,里面有大量的苏联政府和共产国际对中国各派别的指令。后经翻译编成《苏联阴谋文证汇编》,内容主要 是"军事秘密之侦探"和"苏俄在华所用经费"两项。其中有:照译1927年1月30日军事会议案笔录;照译苏俄利用冯玉祥计划文报告;照译 1927年3月13日军事会议案笔录;北京苏联大使馆会计处致广东军事顾问加伦函等等。 . 张作霖从这些材料中得出了如下结论:1.在奉军与南方军战争期间,李 大钊参与了军事谍报工作;2.李 大钊与苏联政府勾结参与中国内战;3.李 大钊和冯玉祥国民军的关系非同一般;4.李 大钊作为国民党和共产党的北方领导人进行了颠覆政府活动。颠覆中华民国,显然属于叛国罪。张作霖据此认定:李 大钊该杀。 . 然而,由于李大钊还有北大教授的身份,北洋政府 前高级官员,如章士钊、杨度、梁士诒和北大校长等都出面说情。张作霖对于是否处死李 大钊十分犹豫,于是他分别发电给张学良、张宗昌、孙传芳、阎锡山等征询意见。除了阎锡山没有回复外,其余人均回复表明态 度。张学良反对杀李 大钊,张宗昌则主张杀掉李 大钊。 . 不久,李大钊等20名国民党和共产党人员被以 "和苏俄里通外国"的罪名绞刑处决,时年38岁。 . 这些苏联大使馆文件在当时各大报上公布,引起蒋介石的警觉,1927年,"四一二"国民党清党。以后苏联报复,在皇姑屯炸死张作霖,并嫁祸日本人,西安事变由此产生,中国当代史改变进程,中华民族从此陷入万劫深渊。 . 详见: 🌲https://******/blogs/science-technologie/hp-vs-huawei HP Way 书(照片) 。 。
今日雨果
3 楼
详见: 🌲https://HugoAujourdhui.org/blogs/science-technologie/hp-vs-huawei HP Way 书(照片) 。
s
slimane
4 楼
輝達閹割兩次的低端芯片都屌打遙遙領先,哈哈哈哈
金拱门汉堡包
5 楼
遥遥领先
老爷们吐口唾沫都是钉
6 楼
核心要有
J
Jambox
7 楼
楼下一窝子狗粮,有发帖赚钱的,还有推销自己破网站的畜生,总而言之看不了中国的一点好,一帮畜生
o
oldoldcandy
8 楼
👍
m
markhammer
9 楼
看着五个屁眼拿华为一点办法没有狗粮那个着急啊。
M
MontBL
10 楼
现在能卡中国脖子的东西已消耗殆尽,漂亮国已无法阻止中国在前沿科技领域稳健,快速前行。方寸大乱,昏招频出。
澳贼
11 楼
点踩的人死全家
a
abe868
12 楼
[4楼]评论人:slimane 噗,不给你配一篇殖人赋就太说不过去了🤣 1.闻洋人之长则喜,闻洋人之短则急; 2.闻国人之短则喷,闻国人之长则疑。 3.国人一死怪政府,洋人一死装圣母。 4.量我舔狗之物力,结洋大人之欢心。 5.国内有则酸你抄袭; 6. 国内无则骂你不行。 7. 国内追赶,则讽你不知差距; 8. 国内不赶,则骂你不思进取。 9. 国内好的国外差,则骂你狂妄自信; 10.国内差的国外好,则要你反思自己。 11.国内外都差的,则说学越南比烂第一; 12.国内外都好的,则说自己房子买不起。 13.国外电影主角以一敌百,超燃超帅万人着迷; 14.国内电影主角突出重围,口嗨瞎编战狼附体。 15.国内产业落后,则问你国当年为什么不努力; 16.国内产业先进,则嘲你国百年造不出光刻机。 17.国外产业落后,则说是夕阳产业早已过时; 18.国外产业先进,则说是人种制度优势原因。 19.国内铁路四万公里,则感觉二十年来啥没变化; 20.国外铁路脱轨相撞,则人家比你早造一个世纪
徐州锁链女
13 楼
你全家死
鲜衣怒马
14 楼
华为加油!
j
junkusb
15 楼
厉害了
勒功燕然
16 楼
只要能给蛮夷添堵,让它们难受,就得赞。
T
TokyoBoy0423
17 楼
说实话,我一个做IT的传统开发者都看不懂这些,真是有点惭愧呀,看来离淘汰不远了 。。。