当电计算逼近天花板,光电融合正在成为下一代算力的“现实路径”

在AI大模型推动算力需求指数级增长的今天,一个越来越清晰的共识正在形成:传统电计算,正在逼近物理极限。

从CPU到GPU,从FPGA到ASIC,再到近年的存算一体架构,过去几十年计算体系的演进,本质上都是围绕一个核心命题展开——用更少的能量处理更多的信息。但这一逻辑,在今天正遭遇前所未有的挑战。

“在电域里,你想做更多计算,本质上就是要堆更多电子,功耗问题绕不过去。”每刻深思MakeSens首席科学家乔飞教授在近日与半导体行业观察的交流中直言。

而这,正是光计算乃至光电融合计算兴起的原因。

电计算逐渐触碰能量天花板,光计算登场

从物理层面来看,电计算的效率提升存在明确边界。

当前主流电路设计与工艺水平,每比特信息处理的能量大致在 10-12到10-15焦耳之间,而热力学极限(Landauer极限)则指向 10-21焦耳。这意味着理论上仍有6–9个数量级的优化空间,但现实问题在于:

这一空间,已经很难通过纯电计算路径实现。

这也解释了为什么,从GPU集群到液冷系统,再到“太空算力”这样的极端设想,本质上都是在“用更多资源换效率”。

在这种背景下,光计算被重新审视。

很多人理解光计算,停留在“更快”这个维度,但实际上,相比电子它真正的价值在于:极低能耗(近乎无静态能耗)、超高带宽(远高于电信号)、低延迟(接近光速传播)。在实际工程对比中,光计算在关键指标上具备显著优势:延迟可提升约3个数量级,带宽可提升约10倍,能效可提升 2–3个数量级。

但光计算的问题在于很难独立成为完整计算体系。原因是:1)数据输入/输出仍依赖电系统,存储体系仍以电子为主;2)控制与交互仍基于CMOS体系。

因此,在乔飞教授看来,光电融合是真正可落地的路径。这句话,实际上点出了产业路线的本质分歧。未来计算架构不会是光替代电,而是光+电的协同体系。光负责高并行、低能耗计算,电负责控制、存储与交互,两者深度耦合。这种架构,本质上是一次“计算分工重构”。

模拟光计算,光电融合的新路径

光电融合并不是简单“拼接”,而是要解决一个核心问题:如何避免接口成为性能瓶颈。

传统的路径是光 → 光电转换 → ADC → 数字处理,但这其中,每一步都有能量损耗,每一步都有延迟,每一步都降低效率。在每刻深思看来,“凡是接口,皆为瓶颈”

因此每刻深思MakeSens新的路径是:在模拟信号域完成光电协同计算。

具体实现方案是,让光信号进入系统,通过超表面(衍射光学)完成特征提取,直接进入模拟电路继续计算,这样能够避免多次转换。把“计算链条”压缩在模拟域内完成。

早期光计算存在的问题在于:只能做一次计算(前向传播),无法复用,更无法支持复杂模型。但AI时代所面临的却是多层神经网络 + 循环计算。

自2020年成立以来,每刻深思就将技术战略全面聚焦于光电融合芯片研发,并在短短几年内完成了从原理探索到系统验证的关键跨越。2023年10月26日,由清华大学电子工程系(乔飞副研究员,方璐副教授)与自动化系(戴琼海院士、吴嘉敏助理教授)的联合攻关成果,相关研究以长文形式发表于《Nature》,提出了一种试图“挣脱”摩尔定律约束的全新计算范式——光电模拟芯片,其算力在特定任务上可达当前高性能商用芯片的三千倍以上。

实测表现下,这颗光电融合芯片的系统级能效比较现有的高性能芯片架构提升了数千倍。

500

在《Nature》论文发布之后,这项研究并未止步于学术突破,而是围绕工程化落地持续推进关键能力建设。2026年1月,实现了光电环路的打通,解决了大规模算法部署中核心复用的工程化难题。此外还实现了对主流大模型的适配与优化,从算法到系统层面不断完善光电计算在AI时代的应用基础,为其从实验室技术走向产业级算力平台打下了坚实基础。

从2020年到2026年,历经六年持续迭代,每刻深思正逐步完成从技术验证到产品化的关键一跃。据透露,公司将在今年第三季度发布面向业界的高性能光计算芯片产品,采用22nm CMOS工艺,无需高端制程和HBM存储,利用超表面微纳结构固化参数,并启动小规模商业化测试,标志着光电融合计算正开始迈入实际产业应用阶段。

路线之争:空间光 vs 波导光

当前光计算领域,主要分为两条技术路线:

第一类是波导光计算(MZI路线),主要是传统硅光体系,其特点是基于一维传播、基于干涉结构。缺点和问题也很明显,例如扩展性差、能效受限、集成密度低。

第二类是空间光计算,也是当前主流突破方向。其核心特点是光从“面”进入,而非“线”,主要基于超表面实现计算,支持高维并行。超表面工艺可轻松做到亚微米级(百纳米级),远超微环(10μm级)和 MZI(微米级)的集成度,为大算力扩展奠定基础。其优势是计算规模更大、能效更高、可扩展性也更强。

每刻深思作为空间光计算的重磅玩家,当前已实现400×400×2级矩阵计算,对比当下仍然集中在128×128 / 256×256的光计算主流方案,空间光实现了数量级领先。

而这一点至关重要。正如乔飞教授所述,光计算必须“足够大”才有意义,小规模光计算,没有优势。这是因为光电转换有成本,并且接口损耗显著。只有当并行度足够大,光计算才能抵消接口成本,体现能效优势。从这个角度来看,每刻深思的意义在于,它并未停留在原理验证或小规模演示阶段,而是率先围绕规模优先这一核心命题展开工程探索,在光计算仍处早期发展的阶段,就尝试对其实际可行性给出更接近应用边界的验证。

商业化路径:从推理侧切入

在商业化路径上,每刻深思选择了一个更具现实性的切入点——AI推理。

相比训练侧对灵活性与可编程性的要求,推理侧更关注效率与成本,而光计算恰恰在这两个维度具备压倒性优势:参数可固化、计算路径固定、能效极高。

从系统层面来看,光计算的优势并不只是“更快”,而是更低的单位算力成本。

据每刻深思CTO刘哲宇的解释,通过将模型参数固化在超表面结构中,减少对HBM的依赖并降低数据搬运,其整体成本有望降至GPU的1/10,能效提升百倍级,延迟进入纳秒级区间。

500500500

目前公司主要绑定互联网和运营商等头部 Alpha 客户,通过提供标准 PCIe 接口板卡和编译工具链,降低客户迁移门槛。据每刻深思CEO邹天琦表示,公司的目标在未来 5 年内替代 20% - 30% 的电计算推理市场。

光计算真正的门槛,不在单点技术,而在系统工程能力,包括:光源(Micro LED)、超表面制造、光电对准、模拟电路、算法适配以及良率控制。在这方面,每刻深思单“光电融合”验证就花了3年,这意味着其门槛和工程壁垒极高、难以复制。

刘哲宇也指出,当前光计算仍有三大挑战:第一是规模问题,需要更大并行度;第二是灵活性问题,由于光计算的参数固化限制了其适应性;第三是精度问题。不过好在,这些都是工程问题,而非电计算摸到极限这样的物理问题。目前这款芯片的综合良率已超 90%,每刻深思也在积极筹备建设中试产线,基于CMOS工艺的硅基光电融合工艺升级,进一步提升壁垒,早日实现面向智算中心大模型的高效能光计算芯片规模化量产,为国内庞大的推理市场提供光计算领域的中国答案。

结语

如果说过去半导体的竞争是:谁的晶体管更多,谁的制程更先进。那么未来的竞争将变为,谁能用更低能量,完成同样计算。光电融合的意义,不在于取代GPU,而在于:重新定义算力的成本函数。在AI时代,这可能比“算得更快”更重要。因为最终决定产业格局的,不是技术本身,而是:每一token的成本。

站务

全部专栏