智谱清言被点名通报,AI助手已成隐私泄露“重灾区”?

500

被点名的或许只是冰山一角

撰文/孟会缘

编辑/李觐麟

排版/Annalee

 

 

在使用DeepSeek、豆包、腾讯元宝、通义等生成式AI应用的时候,你有没有想过这样一个问题:

 

当我们享受着它们根据我们的喜好推荐的内容、智能生成的回复时,我们的个人信息、使用习惯乃至情感倾向,这些看似无关紧要却又能勾勒出生活轮廓的碎片化数据,是否正被违规收集与分析?

 

近日,由官方发布的一则通报对这个问题给予了确认的回复:经公安部计算机信息系统安全产品质量监督检验中心检测,在腾讯旗下移动应用商店“应用宝”中的35款App存在“违法违规收集使用个人信息”情况,检测时间为4月16日至5月15日。

 

其中最引人关注的就是两家AI大模型明星公司,即智谱华章旗下的“智谱清言”和月之暗面公司旗下的Kimi,前者存在“实际收集的个人信息超出用户授权范围”问题,后者则是则是“实际收集个人信息的频率与业务功能没有直接关联”。

 

自从DeepSeek横空出世以来,生成式AI产品在用户端得到了一次大规模的普及与应用,而该官方通报一出,立即就在用户群体中引起了轩然大波。即使这次被直接点名的只是少数,但在社交媒体上关于个人隐私保护的讨论热度却空前高涨,人们对上述违规行为的担忧与不满,迅速蔓延至整个生成式AI领域。

 

之于生成式AI应用行业的信任危机,才刚刚开始。

 

 

“第一股”未上市就折戟?

 

谁能想到,这次被官方通报点名的智谱清言,上个月还传出了“正启动上市辅导,将成为‘大模型六小虎’中首个冲刺IPO的企业”的消息。

 

500

 

 

相关报道显示,智谱脱胎于清华大学知识工程实验室,由清华教授唐杰带领团队孵化。企查查数据显示,智谱已完成18轮融资,投资方包括高瓴资本、启明创投、君联资本等知名PEVC,美团、阿里、腾讯等互联网公司,以及北京、杭州、珠海等国资系基金。

 

所谓的“六小虎”,则是指在大模型领域表现突出的六家创业公司,包括智谱、月之暗面、百川智能、MiniMax、阶跃星辰和零一万物。2022年末,国外的ChatGPT带动了国内的大模型创业潮,“六小虎”大都在这一时间节点前后成立。

 

当时间来到2025年3月,随着DeepSeek异军突起,百度、腾讯等互联网大厂和中小企业纷纷接入和适配DeepSeek,市面上迅速涌现出大量基于DeepSeek技术的生成式AI产品,无疑对“六小虎”的生态位置形成了挤压,行业也加速进入到“洗牌时刻”。

 

从3月份的用户端表现来看,AI产品榜数据显示,夸克以1.48 亿月活占据国内总榜第一名,豆包以9736万月活用户位居第二,DeepSeek7701万月活用户排名第三。而智谱清言和同样被点名的Kimi,其市场体量和前三差距明显,前者以1043万月活用户,3月增长31.78%的成绩,位居第九名,后者则以2649万月活用户,位列第五名。

 

500

图源:AI产品榜

 

也因此,在大厂卡位、资本退潮的双重夹击下,“六小虎”被迫走向分化:有人朝着AGI义无反顾,持续融资、补血、深耕技术,如冲刺AGI(通用人工智能)的智谱清言、阶跃星辰;有人选择掉转船头,把有限的资源聚焦至新的业务方向,如百川智能选择“All in”医疗,零一万物收缩了预训练团队,全面拥抱DeepSeek;也有人依然坚守原地,想以产品力搏出一条生路,如未传出停止预训练信号的月之暗面、MiniMax……

 

“我们融了多少钱,拿了多少收益,其实都是AGI道路上的盘缠。所谓盘缠,就是花掉这笔钱只为了通往目的地”,正如智谱CEO张鹏所说,其曾多次明确过冲刺AGI的目标。

 

据虎嗅报道,受DeepSeek影响,智谱AI在今年加大了开源力度,也会继续坚持预训练。张鹏透露,该公司将自己定位成技术驱动的公司作为基座模型厂商,预训练是一定会坚持的事情,未来也会有更大参数的模型出来。

 

在3月31日的中关村论坛上,智谱发布了AutoGLM沉思模型。据悉,这是一个能探究开放式问题,并根据结果执行操作的自主智能体(AI Agent),能够模拟人类的思维过程,完成从数据检索、分析到生成报告,展示了在法律、教育、金融等领域的自主操作、研究及报告生成能力……这一动作也再一次印证着,智谱将AGI设定为终极目标的选择。

 

500

图源:智谱官博

 

值得注意的是,生成式AI应用因具备智能依赖与数据驱动特性,与传统手机APP相比,往往面临更高的隐私泄露风险

 

用国家数据发展研究院院长胡坚波的话来说,人工智能大模型的发展需要“数据粮食”,特别是高质量数据集,“高质量数据集是人工智能大模型训练、推理和验证的关键基础,是按照特定标准,经过采集、清洗、归类和标注等智能化处理,具有相应更新和维护机制的数据集合。”

 

可这一切的重点是,“数据粮食”的收集和使用,应该在合法合规的框架内进行。

 

 

技术悖论和监管困局

 

在被爆出违法违规收集使用个人信息后,智谱清言和Kimi至今都没有做出过任何官方回应。

 

但这些问题的存在,不仅暴露了部分智能助手APP在数据收集上的过度贪婪,更折射出整个生成式AI行业在隐私保护方面存在薄弱环节。被通报出来的违规事件,或许只是冰山一角。

 

从技术发展和产品逻辑来讲,用户的个人信息处理,实际已成为生成式AI产品不可或缺的一环,尤其是在提升模型性能和保障用户隐私方面,找到两者之间的平衡点,是相关应用服务企业必须面对的重要课题

 

一方面,技术的发展依赖大规模数据预训练,需要在训练过程中处理海量数据,甚至数据量与生成结果的准确性呈正相关关系。

 

有研究表明,在训练语言模型时,当数据量从百万级提升到十亿级,模型生成文本的准确性和连贯性会有质的飞跃,在一些语义理解和文本生成任务中的得分会显著提高。

 

另一方面,任何违反隐私保护原则的行为,都将对品牌声誉和市场信任造成不可估量的损害,甚至可能导致整个行业陷入萎缩和衰退。

 

由于这种短视的行为会损害用户的权益,如果涉事企业不能采取有效措施来加强隐私保护,那么用户必然将失去对生成式AI的信任,进而影响到整个技术接下来的发展路径和市场前景。

 

500

 

 

至于部分企业对个人隐私的漠视和滥用,到底是不是在追求技术创新和商业利益的时候,情不自禁地走了捷径,现在还无法下定确切的结论,但面对这一挑战,像智谱清言和Kimi这样被点名的AI企业,没能给出令人满意的解决方案,的确实是不争的事实。

 

当然上述困境并非出于企业自身发展和选择,这样的单一原因所致。

 

部分用户对个人隐私信息的保护意识不足,导致其在使用相关AI应用时,可能存在随意授权、“一揽子同意”,或者对隐私政策等内容不重视、不了解的情况,在一定程度上也助长了一些AI应用违规收集使用个人信息的行为。

 

此外,现行的数据保护框架在面对AI技术挑战时显得力不从心,存在隐私权界定模糊,信息获取、处理与传递缺乏透明度等情况,加大了隐私保护的难度。如《个人信息保护法》制定时尚未预见生成式AI的爆发,现有法规对“告知-同意”原则的执行存在模糊地带,使得企业在数据收集和使用上存在一定的侥幸心理。

 

500

 

 

为了解决这一系列复杂而紧迫的行业痛点,多维度、多层次的整改措施是不可或缺的,只有通过各个层面的共同努力和协作,才能推动生成式AI行业的健康发展,实现技术与社会的和谐共生

 

而最重要的还是从行业自律的角度出发,AI企业承担起更多的社会责任,主动加强隐私保护措施。毕竟众多历史教训早已厘清这样一个事实——只有懂得尊重用户的企业,才能走向真正的未来。

 

 

站务

全部专栏