掉队的Kimi,又撞上“泄露门”

500

图源Kimi官网

近期,有网友曝光称,自己仅因误发了一张无关图片,Kimi竟直接“吐”出了另一位用户的完整求职简历,姓名、电话、工作经历等敏感信息一览无余。

这一性质恶劣的简历泄露事件,恰好发生在Kimi和它背后的月之暗面最脆弱的时刻。 

月之暗面成立于2023年3月,同年10月便顺势推出Kimi智能助手,一度风光无两。2024年底,Kimi的月活曾稳居国内第三,与豆包、文心一言形成“三分天下”之势。作为头部玩家,Kimi甚至早早试水了用户付费模式,推出打赏及付费解锁高峰期使用权等功能。 

但高光时刻并未持续。在行业高速内卷的洪流中,这两年Kimi反而逐渐掉队。据QuestMobile数据,截至2026年3月,Kimi在国内的排名已滑落至第9位,月活用户从去年同期的2165万暴跌至834万。与之形成鲜明对比的是,豆包、千问、DeepSeek等竞品一路高歌猛进,月活纷纷破亿。 

用户规模难以扩张,商业变现自然无从谈起。就在这种被动局面下,简历泄露事件又给了它沉重的一击。

01

一次“手滑”,却炸出了陌生人的完整简历

4月20日晚,一则网帖瞬间点燃了社交网络。一名网友发帖称,当天下午,他“手滑”误贴了一张英文PPT截图发给Kimi,意外收到了一份陌生人的完整简历。 

500

图源《每日经济新闻》

据该网友的描述,他发给Kimi的截图仅包含三行英文,内容仅是普通的商务复盘。翻译过来的大意是:2025年618市场与平台趋势、核心玩家表现复盘、下一步行动计划与双11筹备。 

诡异的是,面对这张清晰的截图,Kimi却突然像“读不懂”英文一样,顾左右而言他,开始大篇幅解读起毫不相干的“减振技术”。 

在网友表示疑惑和质疑之后,Kimi不仅没有修正错误,反而“反手”甩给网友一份完整且真实的陌生人简历。 

这份简历信息极其详实,包含真实姓名、电话号码、邮箱、工作经历以及核心业绩等高度敏感的个人隐私。据《每日经济新闻》报道,该网友随后通过简历上的电话联系到了当事人钟先生,确认了所有信息均为真实。而钟先生表示,自己就在当天上午使用过Kimi的“简历润色”功能。 

500

图源小红书

诡异之处在于,发图的网友全程并未给出任何诸如“输出简历”的指令,那页PPT截图也从未出现过“简历”等相关提示词。 

截至4月28日,月之暗面仍未通过任何官方渠道就此事发布正式声明。但据当事人透露,已有多名自称Kimi工作人员的人私下联系他,将此事定性为“图片发送失败导致的模型幻觉”。 

事情真的有这么简单吗?Kimi把不相关用户的完整简历发给别人,究竟是所谓的“AI幻觉”,还是更严重的“串台”与信息泄露?

02

“睁眼说瞎话”,Kimi犯了低级错误

对于经常使用AI的用户而言,“AI幻觉”早已不是什么新鲜词。所谓AI幻觉,通俗来讲就是AI开始“睁眼说瞎话”,生成看似合乎逻辑但与事实严重脱节的内容。 

业界普遍将其分为两大类:事实性幻觉与忠实性幻觉。 

事实性幻觉,比较好理解,就是“无中生有”或是“张冠李戴”。比如AI向用户推荐不同型号的电动车,但这些型号品牌压根没有推出;又比如AI称《静夜思》的作者是杜甫,而正确答案是李白。 

忠实性幻觉,一般指向指令不遵循、上下文偏离或上下文捏造等问题。而在本次Kimi简历泄露事件中,多种问题同时出现。

首先是指令没有对齐。面对一张单纯的英文截图,Kimi并未执行最基础的识别与翻译任务,反而出现了严重的任务“错位”——凭空衍生出“解读减振技术”、“回复简历”两项完全不存在的指令。 

其次是上下文捏造。其两轮输出的核心信息,100%来自用户输入中根本不存在的内容。面对用户质疑,它非但没有修正错误,反而彻底偏离对话目标,输出了完全无关的他人简历。这意味着,它连最基础的多轮对话对齐能力都丧失了。 

500

图源Kimi官网

Kimi的情况并非个例。必须承认,AI幻觉是当前大语言模型的普遍痛点。 

但值得指出的是,Kimi此次接收到的任务并不复杂。识别一张清晰、无遮挡、仅有几行标准印刷体英文的图片,并翻译为中文,是几乎所有多模态大模型入门的标配能力,属于“入门级送分题”,哪怕早期的开源小模型都能零错误完成。 

Kimi却交出了一份堪称灾难的答卷。这暴露出的不仅仅是偶然的算法偏差,更是其底层数据处理机制可能存在的系统性缺陷。

但比起技术层面的失误,更刺痛用户神经的,是企业在隐私承诺与现实操作之间的巨大鸿沟。

03

“裸奔”的数据,Kimi为何守不住隐私底线?

随着对大模型的依赖与日俱增,用户对上传的工作内容和个人信息被泄露的担忧,从来没有停止过。而事实一再表明,这绝非杞人忧天。 

Kimi并非孤例。2025年8月,OpenAI被曝训练模型时用到个人隐私数据,多家企业一个月内发生三起泄露事件,巨头纷纷禁用ChatGPT。同年9月,谷歌Gemini的共享聊天链接被搜索引擎意外收录,敏感对话持续泄露。 

值得追问的是,像Kimi这样的AI工具,为什么会出现隐私数据泄露?它究竟是如何收集和使用用户数据的?

我们在与Kimi的对话中提问:“你目前的训练模型所使用的数据集出自哪里?”得到的回复是:公开互联网数据、授权数据集以及合作伙伴提供的数据。 

Kimi还表示,用户在对话中产生的内容不会被用于训练模型,也不会被保存下来用于未来的模型改进。 

但实际情况是,用户的每次对话都在持续“喂养”Kimi,且面临相当大的暴露风险。 

大量的用户早已在不知不觉中落入Kimi的“协议陷阱”。在一份动辄上万字、无人能耐心读完的隐私条款中,藏着一些关键性的“霸王条款”。

Kimi隐私协议明确提到:只要基于服务必需、最小必要原则,就可以“间接”使用用户“喂”的信息。 

例如协议第2.4节“服务体验的优化与改进”部分说明,部分内容会被用于模型训练,但必须同时满足三个条件:经安全加密技术处理、严格去标识化、无法重新识别特定个人。 

500

图源Kimi的隐私协议

简言之,就是数据全程不“裸奔”,剔除一切可直接定位个人的信息,且即便用尽技术手段反向推导,也绝无可能锁定某个特定真人。

只有在同时满足这三个“脱敏”条件后,相关数据才会被用于模型优化。 

但在这次简历泄露事件中,这三个条件一条也没满足——用户的信息不仅已作为数据集,进入了其他用户的对话和回答之中,还未经任何“掩饰”就直接暴露,很快就可以锁定到本人。

当平台的隐私保护措施存在明显漏洞,用户对自身数据的控制权严重缺失之时,隐私风险就根本无从规避。 

这已经不是Kimi第一次因数据合规问题进入公众视野。早在2025年5月,公安部网安局便通报了35款App违法违规收集使用个人信息,Kimi因“实际收集的个人信息与业务功能没有直接关联”被点名。 

此次事件后,Kimi和月之暗面或许将因合规问题遭受信任反噬和商业打击。

Kimi以超长文本处理为核心卖点,在豆包、千问、DeepSeek等核心玩家主导的“效率工具”赛道中,虽仍处第二梯队,并吸引了大量职场人、分析师、法律从业者等细分用户。 

然而,恰恰是这群用户,对隐私安全敏感度最高。本次事件,彻底击碎了核心用户的安全预期。

不同于豆包、DeepSeek等免费工具,Kimi是付费产品。它设置了多档会员体系:免费版、每月39元的Andante版、每月79元的Moderato版,甚至还有每月159元的Allegretto版。 

500

图源Kimi官网

事件发酵后,大量用户已公开表示将卸载Kimi、停止付费订阅、不再上传任何敏感文档。 

在AI赛道,用户一旦流失,在竞品如此众多的市场环境下,几乎没有召回的可能。Kimi的营收将因此受到实质性冲击。

更大的危机还在后面。月之暗面的长期商业化路径,核心是向企业提供大模型API服务、私有化部署和行业解决方案。 

而企业客户选择大模型服务商的第一标准,就是数据安全与合规能力。这次事件,无异于在它的商业蓝图上凿开了一道裂痕。 

月之暗面后续的商业化,包括上市节奏,都可能因此受到影响。

AI板块的空前火热,催化了月之暗面的上市节奏。据多家媒体报道,它计划于2026年下半年赴港IPO。 

但就在这个节点上,隐私泄露这一敏感问题骤然爆发。无论是A股、港股还是美股IPO,监管部门和资本市场都对企业的合规经营、用户隐私保护和重大风险事故有着极其严格的要求。 

这份被泄露的简历,无疑给月之暗面冲击IPO的前景蒙上了一层阴影。 

本文来自微信公众号“奇点湃”

站务

最近更新的专栏

全部专栏