北京大学与DeepSeek共同完成新论文:打造全新条件记忆架构
2026年1月13日消息,据新浪科技报道,DeepSeek于12日晚发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。

据了解,该论文为北京大学与DeepSeek共同完成,合著作者署名中出现梁文锋,创始人梁文锋再次作为署名作者出现在论文中,提出名为Engram(记忆痕迹)的全新条件记忆架构,Engram通过引入可扩展的查找式记忆结构,将传统大模型中“死记硬背类知识”与“复杂逻辑推理”功能解耦。

同时,论文提到结论经“内部大规模训练实验”证实,且Engram架构设计直指千亿级模型优化需求,多位行业观察者指出,Engram是DeepSeek-V4的预发布技术,可能于近期落地。



PChome官方账号





