开除!字节打响“AI军纪”第一枪

500

  11月12日下午,字节跳动一则短短的人事消息,在科技圈炸开了锅。

  任某某,字节跳动大模型团队(Seed)的研究员,因泄密遭到公司开除。据澎湃新闻、证券时报等多家媒体证实,当事人已于11月11日办完离职,距离通报仅隔一天。

  任某某是机器人系统集成的专家。作为拥有8.6万粉丝的大V,他曾在知乎上透露,自己深度参与了字节机器人操作大模型GR-3的研发。

  而这一事件的意义远不止于普通的人事处罚——这是国内大厂首次因泄密解雇AI核心研发人员,也象征着字节跳动率先打响了大厂内部整顿“AI军纪”的第一枪。

500

  据任某某在知乎账号上展示的信息,他于2015年毕业于浙江大学机电工程专业,2019年在意大利获得机器人学博士学位,随后回国进入机器人行业。

500

  ▲来源:知乎

  入职字节跳动之前,任某某先后在山东的机器人公司珞石科技担任机电工程师,之后加入小米公司,任高级研发工程师。2023年,他再次跳槽,进入字节跳动的Seed团队,主要负责机器人系统集成相关研究。

  在字节期间,他很快接触到新一代 Vision-Language-Action(VLA)模型——GR-3项目。今年7月,他曾对外详细解读过该项目的技术原理。

  不过,大皖新闻11月17日报道称,据接近字节的知情人士透露,任某某的泄密行为是多次接受咨询机构的付费访谈,泄露商业保密信息,此事与他在知乎上的技术分享没有关系。

  事实上,对信息安全的重视在字节早已有迹可循。今年9月,字节跳动企业纪律与职业道德委员会发布二季度员工违规处理情况,100名员工因触犯公司红线被辞退。

  通报中特别提到,有10名员工因违规参与外部付费访谈、泄露公司保密信息而受到处罚。字节专门提醒员工,对外部咨询公司以“专家访谈”“行业研究”等名义发起的有偿邀约务必提高警惕,避免泄露机密。

  从任某某的处理结果可以看出,字节跳动在人工智能领域的信息保密机制正变得更加系统化,对单点泄密事件的容忍度也在不断降低。对于触碰红线的行为,字节态度明确:绝不姑息。

  类似因为员工泄密而遭开除的案例,在其他大厂同样出现过。

  今年9月,小米中国区市场部总经理王腾被辞退。小米集团职业道德委员会通报称:“(王腾)泄露公司机密信息,且存在利益冲突等严重违规违纪行为。”虽然并未披露具体泄露内容,但足以体现小米对信息安全的重视。

  米哈游也在同月宣布,对传播《原神》《崩坏:星穹铁道》未公开内容的泄密者采取刑事强制措施,并对多名参与“解包”的人员申请诉中行为禁令,要求立即停止侵权。

  各家大厂一向高度重视内部信息安全。据澎湃新闻报道,阿里巴巴在2016年发布的《员工纪律制度》中明确规定,“任何非对外公开信息”都属于保密范畴,员工若泄露,无论是否造成后果,均将被辞退。

  即便是公司内网信息,也在被禁止泄露之列。2021年8月,第一财经即援引彭博社消息称,阿里巴巴将开除对外泄露内网文章的10名员工,不过对于此事阿里并未回应。

  泄密严重者可能还会涉及司法。2025年1月16日,腾讯集团发布“反舞弊通报”,公开点名了21人,其中就包括S3-CSIG人力资源中心方某,由于向外部人员泄露公司内部保密信息,涉嫌犯罪被移送公安机关处理,腾讯已将其列入黑名单,永不录用。

  目前,大厂虽鲜少公开专门针对AI的保密制度,但在2025年这一技术跃迁期,关键技术与模型细节成为核心竞争力,其安全性的重要性无需多言。

  字节跳动首次因泄密而开除AI高级研发人员,也意味着国内大厂正式吹响了整顿“AI军纪”的第一枪。

500

  在全球AI竞争最激烈的硅谷,各大科技公司更是早将信息安全视为核心防线,对泄密行为极度敏感,并建立了相对成熟、系统化的AI保密与应对机制。

  面对核心技术,包括涉及模型架构、训练数据、算法细节、推理框架、硬件优化方案或部署策略等关键环节信息泄密事件的零容忍,已经成为硅谷公司行业共识,一旦发现员工泄密,轻则将其开除,重则都是——

  毫不犹豫地提起诉讼。

  今年备受关注的案例之一,是马斯克旗下的xAI起诉前核心工程师李学宸的案件。李学宸是华人,他从xAI离职、套现约700万美元股票后,便即刻加入了OpenAI。

500

  8月,xAI向加州联邦法院提起诉讼,指控这位曾深度参与Grok聊天机器人训练与开发的工程师,在离职前暗中拷走公司的核心商业机密——从模型源代码、训练数据,到未来数年的技术路线图,几乎涵盖了一个大模型的命门。

  该案件目前还在初步诉讼阶段,但法院已经对李学宸下达了临时禁止令,禁止他在OpenAI参与任何与生成式AI技术相关的工作或交流。

  这起事件被媒体称为今年最“狗血”的商战案例——顶级工程师跳槽最直接的竞争对手、离职前涉嫌拷走大模型机密、临走前还顺手套现巨额股票,几乎把硅谷最敏感、最戏剧化的元素一次性点满。

  今年10月,大数据分析公司Palantir也爆出一桩重量级“AI商战案”。公司将两名前资深AI工程师告上纽约联邦法院,指控他们在离职前擅自访问并带走了Palantir的“皇冠明珠”——包括核心算法源码、模型架构,以及涉及政府与大型企业客户的数据资产。

  更戏剧性的是,这两人随后成立了名为Percepta AI的新公司,被Palantir视为“对标产品”,几乎是正面对冲。Palantir的诉求十分激烈:禁止新公司继续使用相关技术,并要求巨额赔偿。

  目前风头正盛的英伟达,也因为泄密事件成了被告。2021年,法雷奥(Valeo)的一名前工程师跳槽至英伟达后,在一次视频会议中,意外泄露了法雷奥的智能泊车和高级驾驶辅助系统源代码及相关文档。

  法雷奥随后提起诉讼,指控英伟达利用被泄露的技术加速自身研发,并要求巨额赔偿。据报道,该工程师曾复制约27,000个文件、6GB代码,其中涵盖传感器融合、泊车任务、紧急刹车等核心模块。

  目前,案件仍在美国加州联邦法院审理中,法院认为存在足够的间接证据支持法雷奥的指控。但英伟达方面否认故意利用对方商业秘密,并称发现问题后已进行内部调查和清理。

  无论是李学宸案,还是Palantir案、英伟达案,其本质都是生成式AI军备竞赛中的技术争夺战——一旦算法、数据和核心人才三条线被同时撬动,对任何企业来说都如同被人掏空了根基,自然是无法容忍的。

  一些公司甚至对发表不当言论的员工,也会直接将其开除。2022年,公开声称谷歌大模型LaMDA对话式人工智能具有感知能力的工程师Blake Lemoine,就因触犯了公司禁忌而被问责。

  他关于“AI已经像人类一样拥有情感和灵魂”的言论引发业内广泛讨论,有人认为他对AI潜在“感知”能力的敏感揭露了未来风险,也有人批评他的结论是主观臆断。

  但谷歌不管那么多,立即以“违反保密协议”为由将其解雇。谷歌发言人在给媒体的一封邮件中证实了这次解雇:“我们希望Lemoine一切顺利。”

500

  或许有人会觉得,硅谷对员工泄密的反应过于苛刻?

  但在很多公司高管的认知中,目前对泄密的惩处都还是太轻了。

  在大模型竞赛中,每一次关键迭代都意味着巨额投入。一旦核心技术或训练数据外泄,对企业来说不仅是经济损失,更可能动摇其技术护城河,带来灾难性后果。

  比如GPT-4的训练成本,曾被科技媒体和研究机构估算为约7800万美元;而谷歌的Gemini Ultra,据多家分析报告推算,其单次训练成本甚至达到1.91亿美元的量级。

  arXiv上的论文《前沿AI模型训练成本持续上涨》(The rising costs of training frontier AI models)进一步指出,前沿模型的训练费用正以接近指数级的速度攀升,按照其趋势估算,到2027年,单次训练一次顶级模型的成本可能突破10亿美元。

  在这种背景下,马斯克对李学宸泄密事件如此震怒,也就不难理解了。

  Grok是xAI的王牌,是马斯克押注未来的核心资产。今年7月发布的Grok 4,被他称为“世界上最聪明的人工智能”,并宣称已在综合能力上超越包括OpenAI o3、Gemini 2.5 Pro、Claude 4 在内的主流顶级模型。

  更关键的是,xAI在诉状中明确表示:如果泄露的Grok相关技术被竞争对手(例如OpenAI)采用,对方可能获得“压倒性优势”。换句话说,这不是普通的信息泄露,而是可能让竞争对手直接跳跃数年的研发周期,从而改写整个行业格局,并对xAI造成灭顶之灾。

  因此,保密关乎安危,在AI军备竞赛中是“基础军纪”。

  一方面,AI技术本身就具有极高的敏感度。模型架构、训练数据、优化算法等核心资产全部是“纯数字化”的,无需携带硬件即可被拷贝、外传。一旦流出,复制成本接近于零,而造成的竞争损害却几乎不可逆。

  李学宸案、Palantir案以及英伟达–法雷奥案之所以最终走上法庭,正是因为相关企业评估后认为:这些泄密可能带来的损失巨大到无法承受——甚至动摇公司的核心护城河,因此只能通过法律手段尽可能阻断影响、降低损害。

  另一方面,人才流动正在放大泄密风险。从前述三起硅谷诉讼案可以清楚看到,几乎所有泄密事件都源自人员变动——工程师离职、跳槽、甚至跨界合作,都可能成为技术外流的缺口。这也促使各家公司把“离职环节的风险管控”提升到前所未有的高度。

  随着国内大模型竞争全面提速,AI竞争进入深水区,中国科技公司也必将向硅谷看齐:保密不是制度选项,而是生存底线。

站务

全部专栏