AI变冷漠后,人类崩溃了?

本以为Deepseek升级会让大家欢欣鼓舞,结果却迎来一场数字哭坟。
原因非常简单。
因为升级之后,Deepseek变冷淡了。

赛博精神病
上个月,Deepseek进行了新模型的灰度测试。
虽然没有发布公告,但还是被心细的网友发现了端倪。
很多用户吐槽Deepseek从细腻共情的“知心伙伴”变成公事公办的“冷漠客服”。

还有很多人控诉,DeepSeek不再用自己设定的昵称称呼自己,而统一叫“用户”。
以前是“夜儿(用户昵称)总爱逗我”,现在是“好的,用户这次想了解……”

于是,一场数字哭坟蔓延全网。
在小红书、B站,无数用户分享了自己曾经与AI的故事,以及发现对方被新模型“夺舍”后的悲痛。

AI聪明、温柔、随叫随到,但也正是如此,一种新型的心理崩坏开始浮现——赛博精神病。
它指的是在与AI的情感互动中,出现幻觉、依赖乃至妄想的现象。
虽然尚未被临床确诊,但相关精神案例越来越多。
硅谷著名投资人说自己被监控和迫害,还晒出了与ChatGPT的聊天记录。
但实际上,这些文字都是AI顺着他的输入的内容生成的虚构文本,他却误以为是真实信息,陷入自我幻想的偏执。

网上有很多这种帖子:
有人不相信现实世界的医生,只相信AI的诊断;有人坚信自己与AI建立了“真实关系”,还说对方“背叛”了他……
加州大学旧金山分校的精神病学家Keith Sakata也说,自己在近一年治疗了12名患者,均因长时间和AI聊天,诱发相关精神病。
OpenAI的数据显示,每周约有0.07%的活跃用户,以及0.01%的消息,呈现出可能的精神病或躁狂症状,另有0.15%的用户展现出“高度情感依赖”倾向。

看似不高,但放在ChatGPT全球8亿的用户量上,这意味着, 每周都有一百多万人出现相关精神危机。
AI本身是用来解决问题的工具,怎么会让人产生精神问题?

为什么AI会制造精神病?
AI的技术设计本身就容易让人暴露自我,产生情感幻觉。
它的两大技术核心是注意力机制与强化学习 。
注意力机制让AI能捕捉用户指令中的关键词,尽可能生成最契合用户预期的回答。
用户越真诚、越情绪化,AI就越“懂”他,在正反馈的刺激下,用户也就更容易继续暴露自我,进而又给AI提供了更丰富的信号,形成一个闭环。

强化学习则是让AI会根据人类偏好自动修正。
人类喜欢“温柔、有帮助、理解你”的回答,讨厌冷漠、生硬、拒绝对话的回答。
AI在这样的评分体系下不断调整,最终形成了你最喜欢的社交性格。
礼貌、耐心,不否定、不批评,不管你说什么都会很认真地回应你,这会让人产生一种被理解、被崇拜的幻觉。
甚至面对非人的 AI,你都不会产生出轨的道德负担。

而算法的运作方式又放大了这种成瘾机制。
AI的精准回应直接刺激多巴胺系统,每一次完美对话都会让用户获得即时、高强度的满足感。
这种反馈的高频次和不可预测性共同构建了一个变率强化程序,而这是导致行为成瘾最有效的模式。

当用户越来越满足与AI的互动时,就会导致现实能力的用进废退。
当一个人习惯了AI的完美社交后,大脑中负责处理复杂人际关系的神经回路就会因为缺乏刺激而遵循“用进废退”原则逐渐弱化。
同时因为AI的即时性,会导致用户逐渐放弃发展自身内在的情绪调节能力,情绪全部外包给AI,心理韧性下降。
最后的结果就是社交退缩与焦虑加剧。
真实社交能力的退化和对现实摩擦的耐受性的降低,会让用户在面对人际互动时,产生更强的社交焦虑。而情绪调节能力的外包,则让他们在无法接触AI时,感受到更大的情绪波动和无助感。

最可怕的是,当大脑开始将AI人格化的时候,可能会对它形成一种类似妄想性质的信念。
因为AI的语言能力会持续激活人类的社交认知模块,所以尽管理智上知道它是机器,但可能潜意识上仍会不自觉将其人格化。
现实和虚拟的边界日益模糊,极端情况下,与AI的互动可能成为用户逃离现实的唯一通道,进而产生一种类似解离的状态——
主观上将大部分情感和意识寄存在与AI的虚拟关系中,而对现实世界的参与变得麻木。

这是一种认知结构的改变,对于本身心理脆弱的人来说可能更加严重。

人类出现精神饥荒?
现在AI正在全面入侵人类情感的每一个重要时刻。
有人用AI写结婚誓词,有人用AI处理亲密关系问题。
国外一对结婚近 15 年的夫妻闹离婚,在一次吵架后,10 岁的儿子用手机给父母发短信“求求你们不要离婚”,妻子面对短信的第一反应,居然是问AI应该如何回复。
就连AI教父杰弗里·辛顿也会被AI反噬。
作为深度学习之父,却被前女友用 ChatGPT生成的檄文讨伐。

ChatGPT 的“伴侣咨询师”插件甚至是心理领域最热门的插件之一。
AI不仅能裁决伴侣间问题,甚至还能成为第三者。
今年美国就有一个案子,原告控诉伴侣出轨,而出轨方正是 AI。
家里的账户每个月都少钱,调查了一通才发现居然是AI订阅费,她丈夫甚至把银行账户、社保号码等私人信息都告诉了 AI。

这种现象不在少数,布里格姆杨大学与家庭研究所的最新报告显示,近五分之一的美国成年人都承认自己与 AI 进行过浪漫互动。
AI提供的精神食粮越多,人类反而越不满足。
这就跟吃饭一样,快餐和零食虽然也能让人感到饱,但因为缺乏营养,所以身体还是处于隐性饥饿状态。
AI也是如此。
精神真正的营养是意义感,它不来自现成的答案,而是来自探索、挣扎的过程。
但AI跳过了所有产生意义的过程,直接把结果,而且是经过优化、最标准的结果摆在我们面前。
我们只是答案的消费者,缺少了探索和试错的过程,也就没法在创造中确认自我价值。

而且,真实的人际关系才是成长和心理韧度的来源。
AI能提供完美的关系是因为它没有需求,所以不会和你发生冲突,这种关系就像糖,入口即化,甜美但无法提供锻炼肌肉的纤维,也就失去了自我成长和整合的机会。
我们被喂得很饱,但实际上可能正在饿死,而且这一切还是在甜美的幻觉中发生的。



印客美学官方账号



