智谱通过港交所聆讯,冲击“全球大模型第一股”,中国独立通用大模型开发商中位列第一

500

据港交所12月19日披露,北京智谱华章科技股份有限公司向港交所主板递交上市申请,中金公司为独家保荐人。

综合 | 招股书  编辑 | Arti

本文仅为信息交流之用,不构成任何交易建议

500

据招股书,智谱是中国领先的人工智能公司,致力于开发先进的通用大模型。2019年,公司秉承着在中国追求通用人工智能(AGI)创新的大胆理念而创立。公司于全方位的人工智能研究中扎实交付先进技术,并稳步扩大其商业应用,以实现收入的快速增长。

2021年,智谱发布了中国首个专有预训练大模型框架GLM框架,并推出了公司的模型即服务(MaaS)产品开发及商业化平台,透过该平台提供公司的大模型服务。于2022年,公司开源首个1,000亿规模的模型(GLM-130B)。公司运营于大语言模型(LLM)市场,其为更广泛AI市场的一个细分领域。

智谱为机构客户(包括私营企业及公共行业实体)及个人用户(包括个人终端用户及独立开发者)提供通用大模型服务。截至2025年6月30日,公司的模型已为逾八千家机构客户提供支持,截至最后实际可行日期,已为约8000万台设备提供支持。

根据弗若斯特沙利文的资料,按2024年的收入计,智谱在中国独立通用大模型开发商中位列第一,在所有通用大模型开发商中位列第二,市场份额为6.6%。

于往绩记录期,公司实现收入显著增长。于2022年、2023年及2024年,智谱的收入分别为5740万元(人民币,下同)、1.25亿元及3.12亿元,复合年增长率为130%以上。截至2024年及2025年6月30日止六个月,公司的收入分别为4490万元及1.91亿元。

尽管公司的业务实现持续增长,但智谱于2022年、2023年、2024年以及截至2024年及2025年6月30日止六个月分别录得年内亏损1.44亿元、7.88亿元、29.58亿元、12.36亿元及23.58亿元。

于往绩记录期,亏损主要由于公司对研发作出重大投资。公司的研发开支由2022年的8440万元增至2023年的5.29亿元,并进一步增至2024年的21.95亿元。公司的研发开支由截至2024年6月30日止六个月的8.59亿元增加85.6%至2025年6月30日的15.95亿元。

500

随着智谱将技术商业化以把握住先进的人工智能带来的巨大市场机遇,公司围绕一体化MaaS平台组织产品供应。公司的MaaS平台主要提供四类模型:语言模型、多模态模型、智能体模型及代码模型,以及用于模型微调、部署及智能体开发的集成工具。

公司MaaS平台的主要优势为模型能力全面覆盖、应用场景广泛扩展性及多元化算力基础设施适应性。尽管算力基础设施、终端设备及应用程序中存在较大异构性,但通过该产品开发及商业化平台,公司以最适配、合理及可扩展的方式,向机构客户、开发者及个人客户提供智能服务。

500

智谱的MaaS平台包含以下三个层级:

全面的模型组合。公司已建立全面的先进AI模型组合,在语言、多模态、智能体及代码能力方面展示出行业领先的性能。从公司广泛而强大的产品组合中,客户和开发者总能找到最适合其特定需求的解决方案。

可扩展的应用。公司的模型及智能体旨在跨多样化硬件、跨应用场景、跨业务工作流程无缝进行工具调用并执行复杂任务,支持AI原生的多模态复杂对话及深度推理。例如,公司的模型及智能体可协助机构客户优化业务工作流程、大规模处理及分析运营数据及支持决策制定。

此外,公司的MaaS平台提供了一个智能体工作区,其中包含各种智能体模板及基于场景的解决方案。通过该智能体工作区,公司的客户可通过简化的模型微调、增量模型训练及提示工程,迅速定制智能体。

便捷的基础设施适配性。公司与算力基础设施合作伙伴携手共同设计先进的算力基础设施,使公司的MaaS平台能够提供集成计算、网络、训练通信以及推理加速能力。该合作亦使公司的模型具备广泛的适配性,支持从15亿到2,300亿参数的模型规模,并能够实现大规模、实时的跨云及芯片组部署。尤其是,此适配性使公司的模型能够扩展到大众使用设备,如手机、个人计算机及智能汽车,并惠及大量终端消费者。

公司的MaaS平台提供灵活的自定义模型部署选项,以满足企业的多样化需求,同时保持效率、可扩展性和数据安全性。公司主要提供两种部署方式:本地化部署和云端部署:

对于本地化部署,公司的模型托管在客户自己的基础设施内。此方法使组织能够利用其专有或敏感数据,定制私域专属AI模型。本地化部署提供了对性能优化和基础设施配置的更大控制权,使其适用于复杂或高度专业化的应用场景。

对于云端部署,公司的模型托管在可扩展且可靠的云端基础设施上。此方法适合寻求敏捷性和易于实施性的企业。利用云端,客户无需昂贵的本地基础设施,从而能够快速且经济高效地部署AI解决方案。

就本地化部署而言,公司于大模型及相关服务交付至客户指定地点并经客户检验验收时确认收入。就云端部署而言,公司于合约期内确认收入。具体而言,对于以订阅为基础的合约,公司通常于合约期内按比例确认收入。对于以使用量为基础的合约,公司在向客户提供服务时根据客户对资源的利用情况确认收入。

招股书显示,为了让机器像人一样思考,智谱必须赋予AI三种核心的人类能力:深度思考、认知世界及工具使用。公司据此开发了公司的AI模型,其可分为三个相应类别:反思及沉思模型、多模态模型及智能体模型。公司亦开发了代码模型,其可以自动生成代码并提升编程效率。所有四个类别均基于公司的GLM系列基座模型开发。基座模型以及反思及沉思模型均属更广泛的语言模型类别。

500

500

基座模型为预训练大语言模型,作为开发各种专业模型的基础。GLM-4.5为公司的旗舰基座模型,发布时即已开源。通过多阶段训练并结合微调与强化学习的全方位后训练,GLM-4.5在智能体、推理及编码任务上均展现出卓越性能。

该模型亦支持多模态扩展与大语境处理功能,可解读高阶提示词并自主生成实用型解决方案。GLM-4.5的模型参数规模达3,550亿,同时公司亦研发出轻量级版本GLM-4.5-Air,其参数规模为1,060亿。

根据弗若斯特沙利文的资料,GLM-4.5取得以下领先地位:基准测试。依据2025年7月进行的12项业界标准基准测试1的评估结果,GLM-4.5在全球排名第三、在中国跃居第一及全球开源模型位居榜首。GLM-4.5在该十二项基准测试中获得了63.2的综合评分,而行业同类模型的得分范围则介于46.3至65.0之间。

全球排行榜。于2025年9月,GLM-4.5在ChatbotArena及WebDevArena全球排行榜中位列第五,上述排行榜均为业界公认的全球排行榜,分别对大模型的整体功能及编码功能进行排名。

token消耗量。自GLM-4.5发布及直至最后实际可行日期,公司在OpenRouter(一家提供各类大模型API访问权限的全球领先平台)上的token消耗量持续居于全球前十及中国前三。这种稳定的表现凸显了GLM-4.5强大的竞争力及市场认可度,展现了其先进的效能、可扩展性及实际可用性。

人气排名。于首发后仅48小时内,GLM-4.5便跃居HuggingFace(全球最大开源模型平台)热门榜上全球榜首。

幻觉率。于2025年9月,根据检索增强生成(RAG)领域的LLM幻觉排行榜,GLM-4.5的幻觉率为全球第二低及中国最低。该基准测试通过向大模型发出故意误导性问题,依据大模型生成不存在答案(即幻觉)的频率对其进行评估。

2025年9月,公司发布GLM-4.6,GLM-4.6为公司基座模型的进一步升级版本,主要强化了编码能力。2025年11月,GLM-4.6于CodeArena上位列全球第一,该平台是业界最新公认、专为评测模型编码能力而设计的全球性评估系统。

反思及沉思模型在生成答案前会花费额外时间“深度思考”,这使其更适用于复杂推理任务。基于基座模型,公司构建了反思模型(GLM-Z1)与沉思模型(GLM-Z1-Rumination)。

GLM-Z1为一种专攻确定性命题,致力于提供更精确、更准确的解决方案的反思模型。其基于基座模型,通过扩展强化学习及进一步的数学、代码与逻辑任务专项训练开发而成。

GLM-Z1-Rumination专攻不确定性命题,尤其是需迭代收集处理外部信息的开放性探索问题。与GLM-Z1相比,GLM-Z1-Rumination能够通过更深入持久的思考并使用工具解决更为开放性的复杂问题。

多模态模型能够处理并整合来自不同模态的信息,例如文本、图片、音频和视频。公司已开发服务于不同功能的多模态模型,如CogView(图像生成)、GLM-4.5V(视觉理解及推理)、CogVideoX(视频生成)、GLM-Realtime(实时视频通话)及GLM-4-Voice(语音模型)。

AI Agent整合推理、规划与工具使用能力,可在无需持续人工输入下自主执行多步骤任务。

公司的基座智能体模型是AutoGLM。AutoGLM标志着公司AI宇宙从“对话”到“执行”的重大演进,弥合了对话式AI与现实任务执行的鸿沟。作为专为通过图形用户界面(GUI)自主控制数字设备设计的基座智能体,AutoGLM将类人推理转化为具体行动。AutoGLM在AgentBench(斯坦福大学《2024年AI指数》报告认证的智能体AI基准)实现SOTA性能。

于2025年8月,公司发布AutoGLM的升级版本(亦称“AutoGLM 2.0”),由当时最新的基座模型GLM-4.5及视觉理解及推理模型GLM-4.5V驱动。该升级版本使AutoGLM能够在更广泛的移动应用程序及网站中模拟人类操作行为,并可在云端自主完成指定任务,无需占用用户的手机或计算机,让用户可继续使用其设备而不会中断。

AutoGLM Rumination是AutoGLM的高级版,为一款专为探索开放式命题并根据其发现结果采取行动而设计的自主AIagent。AutoGLM Rumination的特点是“边想边干”——其融合GLMZ1-Rumination模型的出色推理能力与AutoGLM的交互操作能力。AutoGLM Rumination可处理需深度推理、迭代研究及产出可执行结果的复杂任务。

公司已开发出CoCo(一款先进的企业级AIagent,专为企业环境中的智能自动化而设计)。

CodeGeeX是旨在提升编程效率与简化工作流程的强大代码模型。其使开发者可基于自然语言描述自动生成代码,或补全未完成代码行或代码块,显著提升生产效率。

截至最后实际可行日期,上述精选模型及智能体已商业化。

作为一家大模型公司,公司于大语言模型市场运营,其为AI市场的一个分支。近年来,特别是2022年以来,大语言模型的发展经历了巨大的飞跃。目前最前沿的研究主要在美国和中国开展,两国都涌现出了一批领军公司。

以收入计,2024年中国大语言模型市场规模已达到人民币53亿元,其中机构客户贡献人民币47亿元,个人客户贡献人民币6亿元。随着大语言模型技术的不断进步以及机构与个人用户需求的不断增长,估计到2030年该市场规模将增至人民币1,011亿元,2024年至2030年的复合年增长率为63.5%。机构客户仍将是市场增长的核心驱动力,估计到2030年中国企业级大语言模型市场规模将达到人民币904亿元,2024年至2030年的复合年增长率为63.7%。

中国大语言模型市场的参与者可分为独立提供商及非独立提供商。独立提供商从业务开展初期就具备大语言模型技术原生、大语言模型产品原生及大语言模型商业模式原生的特点;而非独立提供商则通常为涉足AI领域的科技巨头。

与非独立提供商相比,独立提供商面临着非常不同的竞争动态。例如,非独立提供商利用其原有的多元化业务线,积累了庞大的用户群,这有利于其大语言模型产品的推广。然而,另一方面,如果科技巨头经营的业务线与客户自己的业务直接竞争,企业客户可能不愿意选择其提供的大语言模型产品。

此外,若干行业的企业客户对进入或可能进入若干科技巨头的影响范围十分谨慎,且更倾向于采用“纯粹(pure-play)”提供商的AI解决方案。

截至最后实际可行日期,智谱在中国拥有86项注册专利,其中84项为发明专利,及在中国提出234项专利申请。截至同日,公司在中国拥有160项著作权、314个商标及58个域名。

招股书显示,智谱的股东包括美团、蚂蚁集团、清华资产管理、今日资本等。

本次智谱香港IPO募资金额拟用于下述用途:约70.0%将用于持续增强公司在通用AI大模型方面的研发能力;约10.0%将用于通过提供最新的基座模型以及训练/推理工具及基础设施持续优化公司的MaaS平台;约10.0%将用于发展业务合作伙伴网络以及进行战略投资;及约10.0%将用于营运资金及其他一般企业用途。

站务

全部专栏