文/观察者网 吕栋
“由于昇腾910B芯片的硬件设计限制,包括显存容量显著低于H200芯片(64G Vs 141G),显存带宽差2倍(1.6TB/s Vs 4.8TB/s )等,(H200是英伟达的中等配置芯片),这些限制导致在新模型训练过程中遇到很大的困难。”4月29日在业绩会上,科大讯飞管理层罕见陈述了在昇腾芯片上训练大模型时遇到的挑战。
在智能体应用爆发的当下,大模型对超长上下文建模、工具调用、项目级代码等复杂能力的要求急剧攀升,而国产算力的显存和带宽限制,使得训练这类模型变得棘手。当国际主流算法出来后,在英伟达GPU上直接就可以做,但在国产卡上需要额外解决算子库效率优化等一系列问题,需要额外3-6个月的适配周期。
坚持在华为昇腾上训练,科大讯飞的做法相对激进,但实际的选择也并没有太多。中美科技的博弈持续深化,多家中国公司被实体清单羁绊,最先进的GPU买不到,海外生态不可靠的现实更不需反复论证。
携手国产算力训练大模型,是科大讯飞不小的挑战,也是AI时代唯一的突围路径。“近期有一些媒体报道DeepSeek V4是昇腾算力上训练的,但实际只是基于昇腾算力对V4模型做了推理适配,DS V4的训练仍然是基于英伟达卡进行的。”科大讯飞管理层在业绩会上表示,目前国内仍然只有讯飞一家在全国产算力上完成全栈模型的训练。
用国产算力推理和训练,难度不同
大模型的竞争,不是一场单纯的商业竞赛。近日,外商投资安全审查工作机制办公室(国家发展改革委)依法依规对外资收购Manus项目作出禁止投资决定,要求当事人撤销该收购交易。
监管关注的并非交易结构本身,而是技术控制权的归属,包括核心研发能力、系统架构、数据来源及关键人才是否发生实质性转移。这一事件也释放出一个明确信号:AI核心资产并不是可以随意流动的普通资产,人工智能时代的核心技术正在被纳入国家安全框架。
英伟达CEO黄仁勋也在近期的访谈中直言,美国对中国的出口管制正产生反效果,反而加速中国AI产业的内部整合。他警告,这种“被迫”的深度融合,可能催生出一个完全去美国化的、垂直整合的AI技术栈。他反对把中国排除在美国技术栈之外,认为这会制造两个生态系统,反而不利于美国。更关键的是,出口管制并不能真正阻止中国推进AI。
但国内市场对“算力替代”的解读,往往有些片面。今年2月,智谱宣布GLM-5完成与华为昇腾、摩尔线程、寒武纪等主流国产芯片平台的“深度推理适配”。4月,DeepSeek-V4上线,华为昇腾、摩尔线程等多家国产芯片厂商均宣布完成“Day0适配”。
这些进展十分重要。智能体爆火之后,一个任务可能不是调用模型一次,而是几十次、上百次地调用模型,持续进行规划、搜索、写代码、读文件、调用工具和反思重试。token调用量越大,推理成本越敏感,国产推理适配的商业价值就越大。
但“能推”和“能训”,中间有一条宽阔的鸿沟。训练不是把现成模型搬到芯片上去跑,而是要让模型在国产芯片集群上,完成从数据、架构、并行策略、通信机制、算子库、容错系统到最终收敛的全过程。任何一个环节出问题,训练效率就会断崖式下滑。
有时,由于算子差异和模型分布式策略,会造成训练推理精度一致性对齐的难题;有时又会因为一致性对齐但是训练效率很低导致难以训练。例如,在智能体强化学习训练阶段的采样推理操作效率,因为国产算力的通信机制设计导致显著低于H200,甚至能相差5倍。
对于国产芯片而言,模型训练的难度远高于推理。但真正要突破卡脖子,又不能只停留在“模型跑在国产芯片上”。因为如果底座模型的下一轮预训练、下一次架构升级、下一代智能体强化学习,仍然依赖海外GPU和海外软件生态,那就无法真正实现自主可控。
换句话说,只有在国产芯片上训出一流大模型,国产算力生态才算完成突围。
华为昇腾芯片
已与昇腾950深度对接,讯飞称训练流程将加速
作为两家实体清单企业,讯飞很早就开始与华为昇腾携手。
在公开发言中,科大讯飞董事长刘庆峰多次强调自主可控算力平台的重要性。他认为,大模型研发首先需要算力支撑,但真正挑战在国产算力生态。
相比简单强调“适配国产芯片”,科大讯飞近些年把重点放在了国产算力训练上,推进长思维链强化学习、MoE等前沿方向在国产算力上的训练效率优化。
“去年我们在910B集群上攻克了长思维链强化学习和首个昇腾原生MoE模型全链条训练的效率难题,训练效率从开箱状态下和同规模A800集群效率相比只有30%,分别提升至84%和93%。”科大讯飞管理层在业绩会上表示,该公司与华为深度合作,发现并解决了许多底层bug,也日益形成了科大讯飞的优势。
财报显示,2025年,科大讯飞营收271.05亿元,同比增长16.12%;归母净利润8.39亿元,同比增长49.85%;扣非净利润2.64亿元,同比增长40.47%。“过去几年我们联合华为做了非常多的国产化适配和创新工作。正是这种问题的解决,使得星火大模型在央国企招投标中获得最高市场份额。”科大讯飞管理层表示。
4月29日,科大讯飞推出基于昇腾910系列算力集群训练的30B中等体量MoE模型讯飞星火X2-Flash。华为称,双方“硬件加算法”协同,联合优化DSA等关键算子性能,算子效率提升超过50%,结合DSA计算特性设计亲和的长序列分布式训练策略,攻克了智能体长上下文在昇腾910系列芯片上训练效率偏低的难题。
坦白说,真正的国产化,是在国产算力上把模型训出来、训强、持续迭代。这一步一旦跨过去,国产芯片就不再只是承接推理任务的替代品,而是进入大模型研发主流程。芯片、框架、算子库、通信库、编译器、集群调度和模型算法会被迫一起迭代。国产算力生态不再只是外围兼容,而是成为模型进化的一部分。
长期以来,受外部环境影响,DeepSeek与华为联手成为众望所归,但DeepSeek-V4发布后,并没有提到该模型基于昇腾训练。华为也只是表示,昇腾950通过融合kernel和多流并行技术降低Attention计算和访存开销,大幅提升推理性能,结合多种量化算法,实现了高吞吐、低时延的DeepSeek-V4模型推理部署。
但科大讯飞这次明确表示,将继续在昇腾950上训练大模型。
“我们当前已经与片华为团队针对950芯进行深度对接,在昇腾950平台上联合攻坚更高效模型结构、混合Attention机制、智能体强化学习等关键技术,因为950系列相对于910系列的显存、带宽算力等方面都有较大提升,预计我们当前的算法迁移过去之后可以很大加速我们的训练流程。预计在今年1024开发者节期间,在昇腾950平台上发布中国首个对标业界最先进主流模型的旗舰大模型。”科大讯飞管理层表示。
巨头环伺,仍要直面市场竞争
自主可控是一块坚实的压舱石,但它并不是护城河的全部。
某种意义上,国产算力训练的意义已经超越了“防止被卡脖子”的范畴。它让科大讯飞面对中国庞大的政企客户时,能够提供一种美国芯片体系无法比拟的信任感:完整闭环、数据不出境、技术不依赖海外。从中标成绩来看,这种信任正在转化为真实的市场选择。
“依托星辰MaaS底座,公司实现全国产算力全链条服务,大模型安全测评位居行业前列,幻觉率低,是央国企招标优选模型。”科大讯飞管理层在业绩会上说道。
但国产算力生态依然处在完善过程中。除了昇腾生态的成熟度仍在追赶之外,全国产化链条中先进制程、HBM、高速互联、先进封装、EDA等环节仍然存在挑战。训练突破的战略价值在于,它让国产算力从“可用”走向“核心可用”,从“局部替代”走向“体系替代”。
与此同时,科大讯飞面临的市场竞争也不容小觑。千问拥有阿里巴巴的庞大生态和C端流量,在开源模型的社区影响力上依然领先;豆包在字节系的强力扶持下,面向C端用户的产品体验和运营能力正在快速攀升;智谱则凭借与多家国产芯片的深度适配,在一体机和企业市场快速铺开。当一个市场里有多个参与者都具备足够的技术实力和资金储备时,“自主可控”这一维度的差异化优势,尚不足以确保一劳永逸的领先。
更值得关注的是,有竞争力的大模型不能仅仅局限在自主可控的市场中,还要走向更广阔的领域,包括国际企业客户、全球开发者社区和开放的技术竞赛。而这些领域,在很大程度上仍由英伟达的生态和通用计算体系主导。国产算力训练做得足够扎实,仍旧只是整个AI产业版图的一部分。科大讯飞能否在坚守国产算力坚固防线的同时,持续拓展国际影响力和商业边界,将是未来几年真正的考验。
能训是硬仗,能赢是更大的仗。在国产算力上持续训出强模型,在世界的大舞台上展现竞争力,才是中国大模型突破封锁、穿越周期更大的底气。
本文系观察者网独家稿件,未经授权,不得转载。