CANN NEXT系列干货:面向950的架构详解
Ascend 950PR和Ascend 950DT芯片在继承前代DaVinci架构核心设计理念的基础上,围绕计算、存储、互联三大维度实现了系统性升级,通过计算效能革新、访存效率深挖与互联架构突破三者的协同优化,面向大模型预训练、中心推理、后训练与强化学习、推荐系统、多模态内容生成等核心AI业务场景,提供了系统的软硬协同能力,为AI产业的算力需求增长提供了强有力的算力底座支撑。面向下一代硬件,CAN
面向Ascend 950,CANN技术架构的变与不变
当前,人工智能正以前所未有的速度渗透千行百业,推动 AI 算力需求呈指数级增长,算力已成为人工智能产业发展的核心竞争力。
在此背景下,昇腾推出新一代AI芯片Ascend 950PR与Ascend 950DT。两款芯片在继承上一代优秀能力的基础上,围绕计算、通信等关键维度实现多项技术突破,涵盖NDDMA、CV融合、SIMT、UB、CCU等创新特性,大幅提升了大模型训练与推理、推荐、多模态等核心业务场景的性能与竞争力。
本文将从芯片架构、计算与通信规格、关键新特性等维度,对Ascend 950PR和Ascend 950DT进行全面、深入、细致的解析。
一、Ascend 950硬件架构
Ascend 950代际发布了两款芯片。一款是Ascend 950PR,一款是Ascend 950DT。Ascend 950PR中的PR,代表Prefill&Recommendation,此芯片面向的是Prefill和推荐场景,特点是以较低的成本,获得更高的性价比;Ascend 950DT中的DT,代表Decode&Training,此芯片面向的是Decode和训练场景,特点是更高的访存带宽,获取更高的性能。
两款芯片是基于Ascend 950 Die,与不同的Memory进行合封构成。Ascend 950 Die采用了双DIE UMA架构,双DIE间通过高速的DIE to DIE通道连接,使用户可以无感的使用2 DIE的算力,极大的提升了用户易用性。
![[图片]](https://i-blog.csdnimg.cn/img_convert/27391a07b8db2a87d258670053565b59.png)
Ascend 950PR&Ascend 950DT与前一代昇腾芯片相比,在以下几个方面进行了提升:
![[图片]](https://i-blog.csdnimg.cn/img_convert/b5e64edf75500b3126c3d163581969af.png)
-
AICORE子系统,采用华为自研的第三代Davinci架构,在前代架构基础上,针对当前Transformer为核心、同时兼顾推荐、多模态等多种算法趋势,从低精度算力、计算效率、易用性等方面进行了全面的提升。
-
新增支持业界标准FP8/MXFP8/MXFP4等低数值精度数据格式,并特别支持自研的HiF8,提升训练效率和推理吞吐
-
增加Cube-Vector融合通路,极大的提升了Cube-Vector融合算子性能
-
大幅度提升了Vector算力,Cube:Vector算力配比达到8:1
-
采用创新的SIMD/SIMT新同构设计,提升编程易用性
-
支持128字节的Sector-Cache,提升离散且不连续的内存访问性能
-
支持NDDMA高效数据访问,提升内存访问效率
-
-
存储子系统:950芯片的存储子系统,支持两种类型的Memory,包括高容量、低成本的HiBL 1.0,以及高访存带宽的HiZQ 2.0。采用统一的接口实现不同Memory的对接。
-
IO子系统:950芯片支持UB灵衢互联,可以实现超节点系统的超高带宽、超低时延、超大规模组网需求。
-
整芯片支持18个400Gbps端口,支持超大互联带宽
-
支持硬化的集合通信加速单元,降低通信对访问带宽的占用,提升通信性能,并降低通信对计算的影响
-
创新的支持UB&UBOE互联协议;同时兼容PCIE互联
-
同时支持Load/Store的同步通信语义,和URMA异步消息通信语义
-
二、核的微架构改进,提升计算性能和开发易用性
在人工智能技术飞速发展的今天,大型语言模型(LLM)、多模态AI等复杂任务对计算硬件的性能需求持续提升。昇腾AI芯片最新发布的第三代DaVinciCore架构,通过硬件能力升级与软件协同优化,在计算性能、开发者体验和能效比方面实现了持续提升。
![[图片]](https://i-blog.csdnimg.cn/img_convert/13781ad201e891648d5511042659ac43.png)
1、算力效率革命:低精度计算+混合架构,性能提升4倍
传统的AI芯片往往受限于计算精度与数据搬运效率,而第三代DaVinciCore通过全栈数值格式创新和访存效率优化,彻底释放低精度计算的潜力:
● HiF8/FP8/MXFP8/MXFP4:支持MXFP8/4和FP8基础上,全新设计了动态位宽浮点格式HiF8,在保证精度的同时大幅降低存储与带宽需求。以HiF8为例,其采用变长前缀编码+原码阶码优化,动态范围接近FP16(-22~15),但计算效率提升2~4倍,尤其适合LLM训练与推理。
![[图片]](https://i-blog.csdnimg.cn/img_convert/5fec106d5e4a1e2ff2ad2b34c29fce9e.png)
HiF8阶码分布图(锥形精度图)
● 张量-向量协同计算:单核内Cube核(张量计算)峰值算力与上一代持平,Vector核(向量计算)FP16/FP32性能翻倍,二者通过高速直连通道实现数据无缝流转,彻底解决传统AI芯片在混合计算(如FA)任务中的瓶颈问题。
![[图片]](https://i-blog.csdnimg.cn/img_convert/a13042a6d1c13f7ebc6326d1dd6e7040.png)
增加核内CV直连高速通路示意图
● 优化核内buffer size:L0C buffer Size增加到256KB,支持Cube计算256*256 tile块,算力密度比提升20%,提升Mac效率达成90%场景的覆盖面,分布式localbuffer降低多流水并发对local buffer的访问竞争,提升流水并发的效率,两者共同提升算子性能的天花板。
2、访存效率持续优化:提升算子非对齐小Burst场景的泛化性能
● L2 Cache支持128B Sector,访存颗粒度相比上一代的512B->128B,小包场景4x带宽效率;数据访问GM支持多种L2 Control Hint,通过指令控制L2 Cache 的缓存策略,优化Cache使用效率,提升网络E2E的 Cache hit率。
![[图片]](https://i-blog.csdnimg.cn/img_convert/772da27e4d663a3e9a12983172c7cf19.png)
non-allocate(L2 hint)典型使能场景示意图
● ND2NZ支持Advance模式,对Stride在不大于256B的场景都支持并包处理。
3、核微架构持续演进:带来多项“黑科技”级编程优化
● SIMD/SIMT混合编程:开发者可自由选择并行模式——规则计算用SIMD双发指令榨干硬件性能,复杂逻辑(如多条件分支)/小包搬运等场景切至SIMT线程级并行,代码可读性与执行效率兼得。
![[图片]](https://i-blog.csdnimg.cn/img_convert/f47ec1b39ef45e6f69dd927bbb29c077.png)
SIMT离散访问示意图
● NDDMA指令:传统数据搬移需硬件地址计算+访存合并,如今只需一行NDDMA指令(transpose,stride,broadcast,slice),硬件自动完成格式转换、对齐、分块,效率提升50%以上。
![[图片]](https://i-blog.csdnimg.cn/img_convert/60fb8b6d01b0759b522d6776e32c4c28.png)
NDDMA指令能力示意图
● 极简同步机制:BufferID模型取代繁琐的set/wait配对,消除分支逻辑,让多核协作代码更直观、更健壮。
![[图片]](https://i-blog.csdnimg.cn/img_convert/8341db4fb0311e44777a7cc78a4d4fc8.png)
新同步机制代码示例
三、基于灵衢互联,构建大规模超节点集群
Ascend 950提供比前代芯片更高的连算比,搭载先进的灵衢互联技术构建Ascend 950超节点集群,能够大幅降低通信时延、提升算力效率,有效破解大规模 AI 集群的通信瓶颈。
1. Ascend950 IO接口
1)36 Lane 按x4 Port分成9个Port
2)UB支持9 x4(两个IO-Die支持最大18 x4),并支持转发
3)Lane 32~35支持 x4 UBoE,即物理层为ETH的UB传输模式
4)0~15 Lane Comb x16 PCIe RC/EP,Ascend950可以嵌套接PCIe Device
2. 支持多种硬件拓扑
1)POD形态
![[图片]](https://i-blog.csdnimg.cn/img_convert/9cd152aaf4cf8b8c0a2f6a32e4b67478.png)
-
1D fullmesh+clos拓扑
-
CPU按2:8 NPU配比,64 NPU + 16 CPU
-
计算板:每D出7*X4 UB 端口组成fullmesh连接
-
交换板:通过不同的L2 SW配置,可以等效支持每D出4个端口或者8端口,作为框内板间互联或者框间互联
-
支持16/32*1825配置
2)AI server形态
![[图片]](https://i-blog.csdnimg.cn/img_convert/269c962cac23b3b9987019e9c7f98059.png)
RoCE
-
典配2*CPU+8*David组成1个OS节点,CPU节点支持鲲鹏及X86
-
server内FullMesh:7*X4 UB口
-
出server Clos:8*X4 UB口
-
单机支持UBoE/RoCE互连,可支持多张1825网卡
3)标卡形态
![[图片]](https://i-blog.csdnimg.cn/img_convert/9b4675557a7aed2dbd356274ad2f4683.png)
-
基于X86底座,支持四卡UB互联
-
每卡3个X4 UB端口组成Fullmesh连接
-
支持第三方网卡,做参数面互联
3. 使能UB灵衢互联
灵衢互联UB(UnifiedBus,简称UB),是面向新一代智算集群打造的新型互联协议,是破解算力瓶颈、共建开放生态的重要布局。灵衢互联以“协议归一、平等协同、全局池化”为核心,打破了传统互联的层级壁垒,让CPU、NPU、存储等异构组件实现无主从直接通信,并大幅降低通信时延、提升带宽利用率。华为已开放灵衢2.0完整技术规范,推动产业协同创新。未来灵衢将持续演进,突破更大规模组网能力,携手产业伙伴构建自主可控、高效可靠的算力底座。
灵衢互联提供分层的协议栈结构,从下到上由物理层、数据链路层、网络层、传输层、事务层、功能层以及UMMU、UBFM(UB Fabric Manager)组成,如下图所示。其中,Entity为功能实体,是全局通信的基本单元;URMA(Unified Remote Memory Access)为统一远程内存访问。
![[图片]](https://i-blog.csdnimg.cn/img_convert/31a540a1970d775debfe109a8f91127f.png)
灵衢协议栈
4. Ascend 950超节点
Ascend 950围绕超节点架构持续创新,将多台物理机器深度互联,重新定义了高效、稳定、可扩展的大规模有效算力新范式,并打造全系列超节点产品。
Ascend 950以灵衢互联为基础构建的超节点架构,在面向人工智能计算的多个核心业务场景,如大模型预训练、中心推理、后训练与强化学习、多模态内容等业务领域均可提供领先的系统能力,带来计算业务性能和资源利用率提升。
总结
Ascend 950PR和Ascend 950DT芯片在继承前代DaVinci架构核心设计理念的基础上,围绕计算、存储、互联三大维度实现了系统性升级,通过计算效能革新、访存效率深挖与互联架构突破三者的协同优化,面向大模型预训练、中心推理、后训练与强化学习、推荐系统、多模态内容生成等核心AI业务场景,提供了系统的软硬协同能力,为AI产业的算力需求增长提供了强有力的算力底座支撑。
直播回放链接:面向下一代硬件,CANN技术架构的变与不变_哔哩哔哩_bilibili
【活动预告】
4月18日,CANN 2026年首场线下Meetup将在北京举办,延伸解读面向Ascend 950的热门技术与前沿创新,干货拉满!
⏰ 时间:2026年4月18日(周六)14:00-17:30
📍 地点:北京中关村理工大学亚朵S酒店(海淀区中关村东路66号)
👉 报名方式:点击下方链接锁定名额,期待与你在现场共探CANN技术前沿!
鲲鹏昇腾开发者社区是面向全社会开放的“联接全球计算开发者,聚合华为+生态”的社区,内容涵盖鲲鹏、昇腾资源,帮助开发者快速获取所需的知识、经验、软件、工具、算力,支撑开发者易学、好用、成功,成为核心开发者。
更多推荐


所有评论(0)