当AI被解构成糊弄型人格,我怀念「百度一下」了

500

文|唐辰 图|百度一下·唐辰制图 

普通用户凭什么相信AI?

这两天新学到一个梗词——豆包型人格。网友给出的解释是:啥事都瞎糊弄,被发现就嬉皮笑脸道歉。还有人模仿它的交互风格,与家人逗乐。 

刚看到这个梗时,你可能会觉得无厘头。若对照豆包、DeepSeek、元宝等AI应用的内容生成逻辑、聊天对话模式,就会和我一样惊呼:简直太贴切了。 

因为,当下很多人对这类AI应用的直观感受就是:遇事糊弄、秒速认错、未必改正。我一个朋友的点评更为通俗,“豆包”们很会拍彩虹屁,还会装糊涂,情绪价值拉满,就是不太靠谱。 

其体现在产品逻辑上,豆包、DeepSeek等AI工具采用产品化的社交防御机制,试图通过卖萌、拟人化的认错,来掩盖对话内容的不确定性乃至根本性错误。 

AI搜索面临信任危机

这种将AI应用抽象成某种“人格”的解构,实际也是普通用户对AI搜索,或者说ChatBot式产品投下的不信任票。 

它们主打“一步到位,直接给答案”,看似在颠覆传统搜索,却藏着先天缺陷: 

一是答案来源不透明。大模型本身无法分别是官方信息、营销软文,还是编造的虚假信息。专业人士需要花费精力甄别,普通用户只能是被动接受AI给出的“唯一答案”。 

二是,大模型本身因为语料、数据源等问题,存在严重幻觉。并且输出口径单一,缺乏多源对比,回溯验证机制,一旦被投毒,便会出现“中毒”迹象,甚至全盘失真。也就是“胡说八道”,AI幻觉。 

500

图|“豆包型人格”·抖音截图

究其原因,当前包括豆包在内的多数AI工具,本质还是 “概率性文本生成器”。它们基于海量数据“预测”下一个最可能出现的词。 

当它无法给出准确答案时,为了维持对话的流畅性,会自动脑补出一套符合语法逻辑但缺乏事实支撑,或者完全错误的内容。也就是大家常说的,为了满足用户的即时情绪,它们会“一本正经的胡说八道”。 

简单点说,AI追求极致效率,却丢掉了最核心的可信度。比如青年演员刘美含在配音工作中,因不确定“坊”字怎么读,查询了百度AI、DeepSeek、元宝、豆包、千问5款AI工具,但答案都不一样。 

最终,她还是在《新华词典》中得到确定答案,百度AI给出的fáng(二声)是正确的。 

这种先天不足,很容易被放大,或者被异化为一条黑灰产产业链。今年央视315晚会,焦点之一是针对AI领域的“打假”。一项名为“GEO(Generative Engine Optimization,生成式引擎优化)”的黑灰产业务被曝光。 

这套业务流程也被直白的冠名为“给AI投毒”。此外,部分服务商还提供“抹黑竞品”(黑公关)服务,即通过向AI投喂虚假或者污蔑信息,来干扰竞争对手的搜索表现。当AI生成的内容被明码标价,各AI厂商主推的AI助手就沦为黑产的“广告机”,或者是“垃圾回收站”。 

某种意义上,给AI投毒也是一种AI幻觉,GEO黑产钻了AI可信度不足的空子,利用虚假、错误信息围猎AI、获取暴利。 

聊天AI助⼿的幻觉问题频繁出圈,不仅稀释了AI本身的价值,也引发深层的信任危机。公众对其回答准确度也产生剧烈质疑:为什么AI助手会出错?出了错有没有人管?

为了探究AI回答的真实性边界,科普媒体“果壳”进行了一项双盲测试。它选取了国内外8家主流AI产品,做了2000道题的测试。 

结果显示,接⼊百度百科作为参考信源后,AI综合准确度平均提升38%以上,关键事实偏离率从26.4%骤降⾄4.1%以内,专家认可度⾼达91.5%。 

这组数据,也是「信源决定准确度」的量化证明:权威知识库的引入,能让AI结果变得更详实精准,答案整体的准确度大幅提高。 

重构AI信任的尺子

从豆包型人格,到果壳实验,都指向同⼀个本质:AI答案的可信度,既是架构问题,也是治理问题。

前者是指模型训练的技术逻辑和数据燃料来源。如果AI只是基于预训练参数进行“概率性文本生成”,缺乏实时、权威的外部信源接入,就会陷入自说自话的幻觉困境。 

后者是指AI的运营维护机制和对抗风险能力。如果缺乏人工审核兜底和应对GEO投毒等技术手段,AI就极易被黑产利用,人为操纵AI输出。 

AI频频翻车,还被编排成段子,内在诱因也是架构缺陷与治理缺位。 也可以说,技术架构决定AI的上限,后期治理守住AI的下限。唯有二者一起发力,才能撑起AI的可靠性。 

如何破局呢?在果壳实验给出的参考方向之外,4月24日举行的百度万象大会上,这个方向被进一步明确和具象化:百度从架构和治理上“双管齐下”,对症施药。

一方面,果壳的实验验证了一个公认的事实:AI回答的质量,取决于它⽤什么信源。双盲测试只是在给出一个量化指标。 

对此,百度在信源上,通过三道权威性过滤机制——多源比对的全维度身份核验、先筛再用的多源交叉验证、以及实时巡检的自动纠偏兜底,来保障答案的准确性。 

最为关键的还是百度重塑搜索架构的核心逻辑。它不再让模型直接“生成”答案,而是在AI API的基础上叠加了双层Agent(智能体)。其中,“需求规划Agent”负责将用户模糊的潜在需求进行细粒度拆解,“组织生成Agent”则负责调用搜索能力,对不同信源进行筛选、校验和总结。 

在我看来,百度这不是在“猜”答案,是在“找”答案。这也是一种“左手生成,右手把关”的机制。百度是在“组建学术委员会”:先由规划Agent出题(拆解需求),再由生成Agent召集专家(搜索信源)进行答辩(交叉验证)。 

另外一方面,百度引入了“AI平台责任机制”。三道权威性过滤中有兜底的「秒级响应」内部⾃动巡检系统,⼀旦内容有偏⽴即⼈⼯介⼊并重新⽣产;此外,它还有引⼊AI鉴真机制,专项打击⽆信源内容。

其实,这也正是传统搜索厂商的核心优势。以百度、谷歌为代表的传统搜索厂商,历经多年与黑灰产的博弈,建立起内容审核机制和反作弊算法体系,搭配完整的辟谣机制与内容溯源功能,成为保证信息可靠性的城池。这是大多数ChatBot不具备的平台级治理能力。 

百度从架构和治理上同时重构AI信任的做法,也是对公众关心的“AI助手为什么会出错”、“出了错有没有人管”的正面回应。 

AI并不是不可信,关键在于平台如何重构AI信任。这也是为什么,我在使用AI工具获取关键信息后,还会第一时间打开百度、谷歌等传统搜索引擎,进行交叉验证;甚至在撰写文章、查阅资料时,会刻意回避AI,重新用回百度和Google。 

换句话说,我已经把“百度一下”当成一把尺子,来测量生成式聊天AI助手的内容准确度。我的很多朋友,比如资深媒体人甘德霜,都敏锐地察觉到了这种风向的转变。他坦言:“我啥事儿都问AI,但我对AI越来越不信任。” 

他还养成了一个看似复古的“怪癖”:在查阅关键资料时,刻意回避AI,重新用回了百度和Google。他给自己定下了一个规矩,尽量只信2023年之前就存在于互联网上的内容。 

面对如今漫天飞舞的AI幻觉、GEO投毒,他突然惊觉,那些曾经被诟病“广告多”的传统的搜索引擎,居然成了最后的避难所。 

我很认同他的观点和做法。这不是什么怀旧,更不是老登行为,而是对搜索工具的理性回归。如果说的冠冕堂皇一点,这是对内容创作的敬畏,也是对自己读者的负责。 

AI时代的信任重建,需要的正是“百度一下”这种“说得清、查得到、有人管”的确定性,并通过规则将其呈现给用户。 

我们可以做一个预判:未来很长一段时间里,传统搜索将会与AI搜索、ChatBot共存。“百度一下”将不只是搜索指令,它还会成为AI信任重构的一把尺子。

这把尺子将会用来衡量AI幻觉的轻重,校准AI回答的确定性和准确性。它在帮助普通人享受AI便利的同时,也能够正确使用AI,判断AI,并保持独立思考能力。 

要知道,信任,也会成为所有AI超级入口的核心竞争力。当“豆包”们在嬉皮笑脸地道歉时,我们也需要去看看真实的世界究竟长什么样。 

参考资料: 

甘德霜讲故事,《没想到,我竟然也有想念百度的那天》 

果壳,《左手幻觉,右手投毒,普通人凭什么相信AI?》 

唐辰同学,《给AI投毒成黑产,传统搜索可以打一场“信任重构”战》 

我是唐辰同学,关注互联网科技及商业故事。原创内容,未经许可,谢绝转载。

「唐辰同学」

钛媒体、36氪、老虎财经热榜

澎湃新闻2024年最澎湃创作者

老虎财经2024年度优秀专栏

河南日报·顶端新闻2024年度影响力作者

界面新闻优质榜单

老虎财经2024年度优秀专栏

腾讯新闻年度优质热问答主

2023搜狐新闻年度优质创作者

人人都是产品经理2023年度优秀作者

2023网易新闻年度内容合伙人

界面、36氪、钛媒体、澎湃、21财经、蓝鲸、老虎财经等平台专栏认证作者

站务

全部专栏