GLM-5硬刚ClaudeOpus,开源首次摸到闭源天花板!

500

作者 | 林潜

编辑 | 头头

2026年开年,全球人工智能行业迎来颠覆性时刻——智谱AI正式发布GLM-5大模型,以开源姿态正面硬刚Anthropic旗舰模型ClaudeOpus 4.6,彻底改写 “闭源主导、开源跟随” 的行业铁律。这款由中国团队自主研发的大模型,一经亮相便引爆资本圈、技术圈与产业圈,发布即售罄、涨价仍被疯抢,成为2026年全球AI领域最具里程碑意义的 “王炸产品”。

2月20日,智谱港股股价单日暴涨42.72%,总市值飙升至3232亿港元,市值规模一举超越携程、快手等互联网巨头,坐稳 “全球大模型第一股” 宝座。资本市场的狂热追捧,本质是对GLM-5技术突破、产业价值与国产替代潜力的高度认可。当全球还在纠结 “参数竞赛”“闭源壁垒” 时,GLM-5用真实性能证明:开源模型同样能触达闭源天花板,中国大模型已具备与全球顶尖选手正面抗衡的实力。

长期以来,全球大模型行业存在根深蒂固的认知偏见:闭源模型是技术顶端,开源模型只能做低端平替。从GPT系列、Claude Opus到Gemini Advanced,全球顶尖大模型均采用闭源模式,凭借技术封锁、数据垄断占据行业主导权;开源模型即便性能提升,也始终与闭源天花板存在难以逾越的差距,尤其在长文本处理、复杂逻辑推理、工程级编程等核心场景,差距更为明显。

GLM-5的横空出世,彻底打破这一格局。作为全球首个性能逼近ClaudeOpus 4.6的开源大模型,它将开源与闭源模型的智能差距压缩至史无前例的水平,在长文本理解、复杂编程、多步骤推理等核心维度实现追平甚至局部超越。在权威人工智能评测榜单中,GLM-5位居全球第四、开源模型第一;

在SWE-bench-Verified、Terminal Bench 2.0等专业评测中拿下开源模型SOTA分数,性能超越Gemini 3 Pro;在BrowseComp联网检索任务中,准确率从55.3%暴涨至75.9%,实战能力实现质的飞跃。

500

图源:智谱

这不是一次简单的模型迭代,而是中国大模型从 “跟跑” 到 “并跑”、从 “技术追随者” 到 “规则改写者” 的关键跨越。GLM-5用实力证明:大模型的核心竞争力,从来不是开源或闭源的形式壁垒,而是解决真实问题、落地产业场景、掌控核心技术的硬实力。

一、DSA稀疏注意力

破解长文本困局,效率提升200%

长文本处理是大模型行业的 “卡脖子” 难题,也是企业级应用的核心痛点。无论是数十万行的代码库、百万字的行业报告,还是全本典籍、长视频解析,传统大模型处理时普遍面临推理卡顿、算力爆炸、成本飙升三大困境:模型需要对全文所有token进行全量计算,计算量随文本长度呈平方级增长,GPU资源被大量浪费,即便投入巨额算力,响应速度与准确率仍难以满足商用需求。

行业普遍选择 “堆算力、加参数” 的硬扛模式,却陷入 “成本越高、效率越低” 的死循环。GLM-5跳出传统思维,从底层架构创新破局,搭载DSA深度稀疏注意力机制,为大模型装上 “智能过滤器”,从根源上解决长文本算力浪费问题。

DSA稀疏注意力的核心逻辑,是让模型在处理长文本时只关注关键信息、自动过滤冗余数据,无需对所有token进行全量计算。实测数据显示,该机制可直接砍掉90%的冗余计算,将模型计算量压缩1.5-2倍,在不损失推理精度的前提下,实现算力消耗减半、处理速度翻倍。依托这一技术,GLM-5轻松实现200K上下文窗口稳定运行,性能损耗不足0.5%,744B超大参数模型运行流畅度远超同级产品,彻底解决长文本 “读不完、记不住、算不动” 的行业痛点。

500

图源:智谱

对于企业用户而言,这一技术突破意味着成本与效率的双重革命:金融机构可实时解析全年财报、监管文件;法律行业可一次性处理全卷法典、案件卷宗;研发团队可直接通读百万行代码库,快速定位问题、优化逻辑。GLM-5不再是 “被动响应工具”,而是能处理复杂长任务、承载企业核心数据的智能生产力底座。

二、Slime异步框架

重构训练逻辑,GPU利用率拉满

如果说DSA稀疏注意力是GLM-5的 “内功心法”,筑牢长文本处理根基;那么Slime异步强化学习框架就是它的 “外功招式”,释放模型极致训练与推理效率。

传统大模型强化学习训练存在致命缺陷:训练与推理流程同步绑定,GPU资源大量空转等待,利用率长期低于50%。简单来说,模型在执行推理任务时,训练流程被迫暂停;训练流程启动时,推理能力无法释放,大量算力被白白浪费,导致模型迭代慢、成本高、商用化难度大。

GLM-5彻底打破这一传统架构,通过Slime框架将训练与推理拆分为两条独立流水线,实现异步并行运行。同时搭配TITOGateway技术规避任务错位问题,让GPU资源全程高效运转,利用率从行业平均50%直接拉满至95%以上。

500

图源:智谱

这一创新带来三重核心价值:

训练效率翻倍:模型迭代速度提升100%,能更快吸收新知识、优化能力边界;

算力成本减半:同等算力下实现双倍产出,企业部署成本大幅降低;

推理稳定性提升:高并发场景下不卡顿、不延迟,满足商用化严苛要求。

Slime框架的意义,不仅在于提升单一模型性能,更在于重构大模型训练与部署的底层逻辑。它让大模型从 “实验室炫技产品” 真正走向 “工业化量产工具”,为开源模型大规模商用化扫清技术障碍。

三、从代码补全到系统交付

工程级智能重塑 AI 生产力

大模型的终极价值,在于落地真实产业场景。GLM-5最具颠覆性的突破,是将AI编程能力从“片段式代码补全” 升级为 “系统级工程交付”,完成从 “编程小工” 到 “总工程师” 的身份跨越。

传统开源模型的编程能力,仅能实现单段代码补全、简单语法纠错,面对复杂项目逻辑、多文件协同、全链路开发时束手无策,输出内容零散杂乱,无法直接落地商用。GLM-5彻底颠覆这一现状,聚焦Agentic Engineering(智能体工程) 方向,打造真正能解决企业研发需求的工程级智能。

为保障代码实用性与可靠性,GLM-5搭建10000+可验证的真实编程环境,所有输出代码必须通过单元测试验证,确保可运行、可落地、可上线。同时,模型采用跨阶段蒸馏技术,解决AI “健忘” 痛点 —— 新能力学习不覆盖旧技能,长期记忆与知识连贯性大幅提升。

实测场景中,GLM-5可独立完成高并发电商库存系统开发,自主设计Redis 缓存、消息队列、数据库锁,输出代码可直接部署上线;能快速定位复杂开源项目报错原因,提供完整修复方案;可拆解大型软件开发链路,协调多文件协同运行,实现 “一句话生成可交互应用”,效率是传统开发模式的数倍。在全球开发者实测中,GLM-5在真实编程场景的使用体感全面逼近ClaudeOpus 4.6,成为全球首个具备工程级交付能力的开源大模型。

500

图源:智谱

这一突破,直接重构软件开发、人工智能、企业数字化的行业格局。未来,中小企业无需组建庞大研发团队,即可通过GLM-5实现系统开发、功能迭代、技术优化,大幅降低数字化转型门槛;大型企业可依托模型提升研发效率、压缩人力成本,加速技术创新落地。

四、七大国产芯片全适配

打通国产算力 “生死线”

技术自主可控,是中国AI产业的核心命题。GLM-5最具战略意义的突破,是一次性完成七大国产芯片平台深度适配,彻底打通国产算力 “生死线”,实现从模型到算力的全链条自主可控。

目前,GLM-5已完成与华为昇腾、摩尔线程、寒武纪、昆仑芯、沐曦、燧原、海光七大主流国产芯片的全链路算子优化,实现高吞吐、低延迟稳定运行。这不是简单的兼容性适配,而是从底层内核到上层推理框架的全方位优化,确保模型在国产算力平台上发挥极致性能。

长期以来,全球大模型产业高度依赖进口算力芯片,国产模型面临 “卡脖子” 风险。GLM-5的适配突破,标志着国产大模型与国产算力形成完整生态闭环:不再依赖国外芯片,不再受制于技术封锁,构建起 “中国模型 + 中国芯片” 的安全产业体系。

这一成果对国家数字安全、产业自主具有里程碑意义:在金融、能源、政务等关键领域,可实现大模型全流程国产化部署,保障数据安全与技术自主;在全球AI竞争中,中国拥有了从模型研发到算力支撑的完整话语权,彻底摆脱外部技术制约。

五、开源破界

中国 AI 引领全球新时代

GLM-5的诞生,是全球大模型行业的分水岭。它以开源姿态,首次触达闭源模型的性能天花板,打破 “闭源 = 高端、开源 = 平替” 的行业偏见;以自主创新,攻克长文本、训练效率、工程落地、算力适配四大核心难题,证明中国大模型的技术实力已跻身全球第一梯队。

从资本市场的狂热追捧,到技术圈的高度认可,再到产业界的广泛落地,GLM-5的成功,本质是技术创新、产业落地、自主可控三大核心逻辑的胜利。它证明:大模型的真正护城河,不是闭源壁垒,不是参数堆砌,而是解决真实问题的能力、持续创新的韧劲、全链条自主的底气。

这只是智谱AI在Agentic Engineering时代的第一次出手。随着技术持续迭代、生态不断完善,下一代大模型将带来怎样的突破?我们有理由相信,以GLM-5为起点,中国开源大模型将引领全球AI发展新潮流,用技术创新改写行业格局,用自主可控筑牢产业根基,让中国AI真正走向世界舞台中央。

站务

全部专栏