算力封锁下的逆袭,国产推理大模型的崛起与征途

500

​今年年初,DeepSeek横空出世,让世界重新认识了中国大模型。

几乎在DeepSeek爆红的同一时间,科大讯飞发布了全国产算力平台上首个深度推理大模型——讯飞星火X1,其独一无二的标签是“唯一基于全国产算力训练的深度推理模型”。

1万张华为昇腾910B国产算力卡,训练出的星火X1在模型参数比业界同类小一个数量级的情况下,整体效果却能对标OpenAI o1和DeepSeek R1。

在旷日持久的科技赛跑中,科大讯飞用实际行动走出了一条自主可控,虽然艰辛,但更值得夸赞大模型发展路线。

01 技术突围,国产算力的极限挑战 

从表面上看,科大讯飞选择“全栈自主可控”路线是出于中美竞争的地缘环境,两次被美国列入实体清单,无法获得英伟达芯片算力的“另辟蹊径”,然而更深层次的内里,人工智能竞争的实质已经算法与模型的性能优劣,演变成算力/算法/应用这一整条链接综合能力的考验。

因而科大讯飞从一开始就确定了“全栈自主可控”的方向,算力国产化,算法自研。

2023年5月,讯飞星火大模型发布,5个月后,首个支撑万亿参数大模型训练的万卡国产算力平台“飞星一号”也宣布正式启用。

2024年,在“飞星一号”算力平台的支持下,讯飞星火大模型不断升级,从V3.5到V4.0再到V4.0 Turbo,核心能力全面对标GPT-4 Turbo。

取得上述成绩的背后是科大讯飞与华为共同攻克的技术无人区。自2023年5月起,双方团队在万卡高速互联组网、计算通信隐藏、训练推理强交互等关键领域取得突破,将昇腾910B的训练效率从最初相当于英伟达A100的30%-50%提升至85%-95%。

今年1月,科大讯飞又发布了国内首个基于全国产算力训练的具备深度思考和推理能力的大模型——讯飞星火X1。

这个仅130亿参数的“小模型”实力“惊人”,在高考题、AIME竞赛题和高中奥赛题解答中,不仅答案准确,还能提供接近人类“慢思考”的详细解题步骤。

3个月后,科大讯飞与生态企业组成的联合团队通过多种优化手段提升“飞星一号”平台上 MoE 模型集群推理的性能上限,并实现大规模专家并行集群推理性能翻番,讯飞星火X1也由此迎来了全新升级,在数学、代码、逻辑推理、文本生成、语言理解、知识问答等通用任务上效果显著提升。

科大讯飞的实践充分证明了基于国产算力训练的全栈自主可控大模型具备登顶业界最高水平的实力和持续创新的潜力,与此同时,也在“自主可控”语境下,为中国的大模型行业提供了一条可供借鉴的破局之路。

02 应用为王,从教育医疗到央国企的全面渗透 

研发实现了“全栈自主可控”,其价值最终要体现在落地应用上,科大讯飞的战略是以“1+N”的形式进行业务体系布局, “1”是指通用底座大模型,“N”是指以底座大模型赋能教育、医疗、汽车、办公、工业、智能硬件等多个行业领域,并形成独具优势的行业大模型。

比如,讯飞星火X1在教育场景中落地时,联合中国教育科学研究院发布基于“问题链”的高中数学智能教师助手,在全国百个试点区域部署,与上千名优秀教研员打造了上万个优秀案例。

在实际教学中,老师们发现X1在一题多解、教学知识关联、拓展学生高阶思维等方面表现出色。相关技术的融入,科大讯飞AI学习机的学习推荐和诊断也变得更加精准,解题思路和知识链条更加清晰。

在医疗领域,X1的模型策略已使专科辅助诊断和复杂病历内涵质控准确率达90%。科大讯飞还表示将在年内发布基于X1的医疗大模型升级版,确保其深层次诊断推理效果业界领先。

更令人瞩目的是在央国企市场的攻城略地,科大讯飞为央企打造的专业大模型已成为行业标杆。

与中国石油共建的昆仑大模型使代码开发效率提升73%,行业知识问答采纳率超95%;为国家能源集团开发的智能评标助手获国资委点名表扬;与中海油合作的 “海能”人工智能模型已在招标采办、员工健康等领域应用,并正在研发海上油田稳产增产等专业场景模型。

科大讯飞之所以能够在IDC的报告中拿下去年央国企大模型解决方案市场份额第一,其核心原因在于满足了产业应用“既要又要还要”的需求,即工程能力与技术能力双向驱动。

在具体实践中,科大讯飞通过“通专结合、端云联动与软硬一体”(通用大模型与专业大模型结合、端侧大模型与云端大模型联动、软硬件一体化)来实现部署成本与用户体验的平衡,提出“建算力、理数据、训模型,到落场景、保安全、精运营”的全链路方法,从场景出发,给客户提供人工智能的解决方案。

在工具层面上,科大讯飞进一步升级了模型定制优化工具链,支持监督微调、强化学习两种模型定制优化方案,持续简化定制步骤和成本。

03 星火燎原后的硬仗与新征途 

从上文的分析不难看出,科大讯飞不仅证明了国产算力登顶技术巅峰的实力,更为中国大模型行业开辟了一条可借鉴的破局路径。然而,大模型行业的竞逐正步入深水区,讯飞面临的考验更为复杂。

其一,全球大模型正加速向多模态、强推理、高能效演进。昇腾910B效率虽追至A100的85%-95%,但面对英伟达H200等新一代芯片及集群效率的持续跃升,保持算力底座竞争力仍需在芯片互联、训练框架、集群调度等“硬骨头”上持续攻坚。

其二,大模型之争终将演化为生态之争,科大讯飞“1+N”战略虽已铺开,但相比互联网巨头在消费端的海量触达和开发者生态号召力,其仍需在吸引广大开发者、构建繁荣的工具链与社区生态上倾注更多资源与开放诚意,避免成为“孤勇者”。

其三,行业落地已从“能用”迈向“好用且经济”,科大讯飞在央企、教育、医疗的标杆案例虽亮眼,但需将“通专结合、端云联动”方法论沉淀为可快速复制的规模化能力,在确保“自主可控”前提下持续优化部署成本与用户体验,实现商业价值的可持续闭环。

今年4月份的业绩说明会上,科大讯飞官方认为,“目前底座大模型还有很大的增长空间,通过预训练和强化训练两种方法,大模型的自主进化在未来2-3年内还有巨大的提升空间,天花板非常高。”

科大讯飞董事长刘庆峰也表示,会继续加大“1+N”的投入,抢抓通用人工智能的根红利。“在完全自主可控的基础上,我们的通用底座大模型要做到第一梯队,永争行业第一,不仅仅是跟随,并推动更多算法研发和创新。”

很明显,科大讯飞的挑战主要来源于持续不断的创新与投入和长盈利周期的平衡,好就好在,科大讯飞以筚路蓝缕的实践点燃了希望之火,至少在当前这个时间节点,科大讯飞仍处于领跑的位置。

科大讯飞的未来如何,既取决于其在技术深水区持续攻坚的硬实力,也考验其构建开放生态、实现规模落地的软智慧。

站务

全部专栏