文章介绍了TLab课题组依托鲲鹏+昇腾平台,在微观矩阵计算、工业优化建模、训练稳定性分析、高速路网仿真等领域取得的关键技术突破。主要成果包括:1)GEMM自动调优技术,大幅提升大模型算力利用率;2)EvoOpt-LLM工业优化自动建模,重构运筹开发流程;3)基于微批次分布建模的训练稳定性分析技术,提前识别训练风险;4)基于鲲鹏昇腾的大规模CTM仿真与并行加速技术,实现高速路网在线推演。这些成果可直接工程化,为相关领域提供高效解决方案。

成果一:GEMM自动调优技术:

大模型算力利用率逼近硬件极限

在大模型训练与推理过程中,矩阵乘法是最核心、最频繁的计算操作之一。无论是Attention、Transformer,还是FFN等关键模块,其底层都离不开大规模矩阵计算的高效支撑。矩阵计算效率在很大程度上决定了整体算力利用水平,也直接影响大模型训练与推理的性能上限。

但在真实硬件环境中,矩阵计算优化并不容易。面对复杂多变的矩阵尺寸组合、混合离散参数空间以及编译执行过程中的多重约束,传统依赖人工经验的调优方式往往效率有限。参数配置维度多、组合复杂,不同配置下的性能可能相差数倍;同时,一些参数即使满足显式约束,也仍可能在真实硬件编译阶段失败。如何在有限搜索代价下快速找到高性能、可执行的配置,始终是底层算子优化中的关键问题。

围绕这一难题,我们形成了面向昇腾平台的矩阵计算自动优化技术路径,聚焦GEMM分块策略的自动优化,探索从问题建模、约束感知搜索到跨任务经验迁移的一体化技术体系。相比传统“靠经验调参数、靠试错找最优”的方式,这项技术更强调将复杂调优过程系统化、模型化和自动化,使矩阵计算优化从离散试错走向可学习、可迁移的智能搜索。

A2系列硬件基本架构(AI Core+多级存储层次结构)

这项技术的核心突破体现在三个方面:

  • 可建模:将复杂GEMM分块问题转化为统一优化任务
  • 可搜索:面向真实硬件约束实现高效自动调优
  • 可迁移:复用历史经验加速新矩阵场景求解

在问题建模层面,该技术对GEMM分块策略进行了统一形式化表达。围绕tile大小、split-k因子、数据布局等关键参数,构建混合整数黑箱优化模型,将原本高度依赖人工经验的调优问题转化为可计算、可搜索的优化任务,为后续自动调优奠定基础。

GEMM分级Tiling与关键分块参数示意

在自动调优层面,技术方案进一步面向复杂约束场景设计了约束感知搜索方法。针对整数变量、显式约束以及隐式编译约束并存的特点,在贝叶斯优化框架基础上进行了改造:一方面通过启发式邻域搜索提升候选配置生成效率,另一方面将“是否可编译、是否可执行”纳入可行性建模过程,减少无效采样和失败试错成本。这样一来,搜索过程不仅关注性能高低,也更关注配置能否真正稳定落到硬件上执行。

在工程应用中,调优也不是一次性任务。不同模型、不同层结构、不同矩阵规模会持续产生新的优化需求。为此,该技术进一步探索了跨任务迁移优化机制,将历史调优数据作为可复用经验,引入到新矩阵场景的搜索过程中,从而提升求解效率,降低冷启动代价。进一步面向大模型典型场景验证时,该技术在Qwen 2.5-7B和Qwen 2.5-32B的部分关键GEMM场景中也表现出较好的加速潜力。在典型FFN场景下,相关算子的实测性能可达到相较基线约1.8倍至3.0倍的提升。这表明,该技术不仅适用于单一任务上的点状优化,也具备服务大模型场景中大量不规则GEMM持续优化需求的能力。

成果一链接:https://gitcode.com/SEU-TLab/Simulation-of-Microscopic-Typical-Matrix-Computation-Patterns

成果二:EvoOpt-LLM工业优化自动建模:

LLM重构运筹开发流程

在工业优化场景中,建模往往比求解更难。无论是生产排产、资源配置,还是供应链协同优化,业务需求通常以自然语言、规则条款和经验约束的形式存在,而进入求解阶段前,必须先将这些业务逻辑转化为严格、可执行的数学模型。长期以来,这一过程高度依赖运筹建模专家,不仅开发周期长、沟通成本高,而且当业务规则发生变化时,已有模型还需要反复修改和维护,整体迭代效率较低。

围绕这一问题,我们探索了EvoOpt-LLM工业优化智能建模技术路径,尝试借助大语言模型打通从业务需求理解到优化模型生成、再到模型持续演化与求解前加速的完整链路。相比传统方式,这项技术关注的重点不只是“让模型会生成代码”,而是推动工业优化建模从高度依赖人工经验的过程,逐步走向更高效的智能辅助与自动化构建。

在整体设计上,EvoOpt-LLM形成了“自动建模—约束注入—变量压缩”的一体化技术框架。自动建模负责将自然语言形式的工业优化需求转化为求解器可执行的 LP/MILP 模型;约束注入负责在已有模型基础上自动插入新的业务规则与约束,实现模型的持续维护与演化;变量压缩则在正式求解前识别冗余变量,缩减模型规模,提升求解效率。通过这一技术框架,工业优化不再只是一次性建模问题,而是形成了从构建、扩展到加速的完整技术链路。

EvoOpt-LLM工业优化智能建模总体技术框架

这项技术的核心能力主要体现在三个方面:

  • 自动建模:将业务描述转化为可执行优化模型
  • 持续演化:在原有模型基础上自动注入新约束
  • 求解加速:通过变量压缩降低问题规模与求解复杂度

在自动建模方面,该技术尝试将自然语言描述的业务需求直接转化为优化模型代码,使模型能够自动识别集合、参数、决策变量、约束条件和目标函数等关键建模要素。针对生成结果中可能存在的语法不完整、表达不一致或求解器接口不兼容等问题,技术方案还设计了后处理与自动修复机制,以提升输出结果的结构完整性和可执行性。

盘古辅助自动化建模技术流程示意

在工业场景中,优化模型往往会随着生产组织、资源配置和业务规则的调整不断演化。针对这一特点,EvoOpt-LLM进一步探索了约束自动注入技术,使模型能够在已有LP/MILP结构基础上理解新增业务规则,并自动插入新的变量与约束,实现模型的非破坏性增量扩展,从而显著提升工业优化模型的迭代效率。

面向业务规则变化的约束自动注入示意

除了模型生成和维护,求解效率也是工业优化场景中的关键问题。面对变量规模庞大、约束关系复杂的大型优化问题,大量冗余变量会显著增加求解空间复杂度。为此,该技术进一步引入变量压缩思路,在模型求解前自动识别并移除冗余变量,通过结构压缩降低问题规模,为后续高效求解创造更有利的条件。

EvoOpt-LLM以大语言模型和参数高效微调为基础,结合结构化训练样本、规则注入和自动修复机制,增强模型对工业优化建模任务的适配能力。与通用代码生成不同,这项技术更强调对优化结构的理解、对业务逻辑的映射以及对求解器执行要求的适配,目标是让模型输出不仅“看起来像代码”,而是真正具备进入优化求解流程的实际价值。

成果二链接:https://github.com/WillowHe/EvoOpt_oppangu_optimization_model

成果三:

基于微批次分布建模的训练稳定性分析技术

在大模型训练过程中,训练是否稳定,直接关系到模型收敛效率、资源利用水平和整体训练成本。随着模型参数规模、训练时长和并行规模持续增长,训练过程中的不稳定现象也越来越常见,例如loss突增、梯度异常、训练回退,甚至需要从检查点重新启动。很多时候,这些问题并不是突然发生的,而是在训练内部以更细粒度、更局部化的方式提前出现。

但在传统训练监控中,系统往往主要依赖step-level指标,例如mean loss、gradient norm等。这类指标虽然直观、易于记录,却会把一个step内部的大量细节压缩成单个均值。在数据并行训练中,一个优化step实际上由多个worker、多个micro-batch共同完成,系统每一步真正产生的并不是一个loss,而是一组loss。若这些微批次之间已经出现明显分化,或者高损失尾部正在扩张,那么平均值依然可能看起来平稳,从而掩盖训练风险的早期信号。

围绕这一问题,我们形成了基于微批次分布建模的训练稳定性分析技术路径。该技术不再将一步训练简单视为一个标量结果,而是将其重新看作由多个微批次损失共同构成的分布对象,重点关注训练过程中分布形状、尾部变化以及时间演化特征。相比传统“只看均值”的监控方式,这项技术更强调从训练内部结构出发识别潜在失稳风险,使训练分析从标量曲线监控进一步走向分布结构监控。

微批次数据流与参数更新过程示意

这项技术的核心突破主要体现在三个方面:

  • 看见均值之外的差异:从单个step的平均值转向微批次分布观测
  • 看见训练内部的结构风险:识别尾部扩张、局部分化和分布扭曲等前兆
  • 看见训练状态的动态演化:结合时间维度分析分布是否稳定收敛

在方法层面,该技术首先将单步训练状态表示为由多个微批次损失构成的向量,从而把训练状态从“一个数”扩展为“一个分布”。这样做的意义在于,分析重点不再只是平均loss是否下降,而是进一步关注这些微批次loss之间的相对高低、尾部变化和结构形态。对训练系统而言,这相当于把监控粒度从step-level进一步下沉到了微批次层面。

考虑到不同step中微批次的数据顺序和调度路径会发生变化,技术方案进一步对每一步的微批次loss进行排序,得到更稳定的分位表示。经过这一步处理,分析对象不再是“某个具体微批次”,而是“这一时刻的损失分布形状”。继续在时间维度上观察,就可以更清晰地判断训练分布是否在收敛、尾部是否在扩张,以及是否出现了非线性扭曲等潜在失稳特征。

在此基础上,该技术进一步构造了一个面向训练稳定性的简化指标:一部分反映优化是否在持续推进,另一部分反映微批次loss分布是否正在失稳。也就是说,训练状态不能只看平均loss是否下降,还要看这种下降是否伴随着内部结构恶化。如果平均值在下降,但高损失微批次尾部持续抬升,或者分布形状开始剧烈弯曲,那么表面上训练似乎在前进,实际上可能已经积累了后续波动甚至失稳的风险。

从技术价值看,这种方法补上了传统训练监控的一个重要盲区。过去很多系统只有在异常已经较为明显时才能作出响应,而在引入微批次分布视角之后,系统就有机会在更早阶段识别局部异常、尾部扩张和结构失衡等前兆信号。这意味着训练分析不再停留在“曲线是否好看”的层面,而是能够进一步回答“训练内部是否健康”“风险是否正在累积”这类更关键的问题。

成果三链接:https://github.com/HongriJiujiu/op_pangu

成果四:

基于鲲鹏昇腾的大规模CTM仿真与并行加速技术

在高速公路运行监测、事件处置和调度决策中,交通状态能否被快速、准确地推演,直接影响管理响应的时效性与科学性。尤其在事故扰动、流量波动和管控策略调整等场景下,行业对“实时感知、快速推演、辅助决策”的需求越来越迫切。但长期以来,交通仿真始终面临一个突出矛盾:一类方法刻画细致,却难以满足大范围路网下的实时响应要求;另一类方法计算速度较快,却往往难以兼顾复杂场景下的动态刻画能力。

围绕这一痛点,我们形成了基于鲲鹏昇腾计算平台的大规模CTM仿真与并行加速技术路径,面向高速路网在线推演场景,重点突破仿真规模、计算效率与结果可信度之间的协同优化问题。该技术并不是简单将已有模型迁移到国产平台运行,而是从仿真输入、模型构建、计算表达和并行执行等关键环节进行了系统性重构,推动交通仿真从“离线分析工具”进一步走向“在线推演能力”。

在仿真输入层,该技术以路网车流OD矩阵为基础,将实时OD预测结果作为仿真驱动输入,并融合道路网络信息与交通态势实测数据,构建面向在线业务的仿真环境。针对多源交通数据格式不统一、时间与空间尺度不一致等问题,技术方案对数据转换、时间对齐和空间匹配等环节进行了系统设计,形成了较为完整的自动化接入流程,为在线仿真提供稳定的数据基础。

面向在线仿真的OD预测与数据接入流程示意

这项技术的关键突破主要体现在三个方面:

  • 输入可在线接入:实现多源交通数据的自动化接入与驱动
  • 模型可贴近场景:构建考虑多车型影响的CTM仿真方法
  • 计算可并行加速:通过矩阵化改造提升大规模路网推演效率

CTM仿真模块技术框架

该技术以元胞传输模型(CTM)为基础,结合高速公路运行场景特点,对传统模型进行了针对性改进。围绕多车型混行条件下的交通状态传播过程,构建了考虑多车型影响的仿真方法,并结合参数校准与场景适配机制,增强模型对真实高速路网运行状态的刻画能力。这样做的目的,不只是让仿真“能够运行”,更是要在在线推演场景下尽可能保证输出结果的可信度和业务参考价值。

更关键的是,在计算实现层面,该技术对CTM仿真过程进行了矩阵化改造。通过邻接矩阵、布尔筛选向量等功能设计,将原本分散的状态传播与更新过程转化为更适合并行执行的矩阵运算过程,从而更充分地发挥昇腾平台在高吞吐并行计算方面的优势。借助这一技术路径,传统交通仿真中大量依赖串行执行的步骤被重构为可并行加速的计算流程,为大规模高速路网的快速推演提供了关键支撑。

CTM矩阵化表达与并行加速方法示意

从工程应用角度看,这项成果的价值,在于将交通仿真中“精度与效率难以兼顾”的问题推进了一步。相比计算成本较高、难以满足在线应用需求的传统微观仿真方法,该技术更加聚焦在线场景中的规模化推演需求,通过模型优化与平台加速相结合的方式,在效率和适用性之间取得更好的平衡。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2026 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

Logo

鲲鹏昇腾开发者社区是面向全社会开放的“联接全球计算开发者,聚合华为+生态”的社区,内容涵盖鲲鹏、昇腾资源,帮助开发者快速获取所需的知识、经验、软件、工具、算力,支撑开发者易学、好用、成功,成为核心开发者。

更多推荐