人类是理性的吗?

500

一个诞生于200多年前的数学定理,在漫长的时间里改变了医学、法律、科研、人工智能等多个领域,并成为个人理性思考和决策的强大工具。这正是贝叶斯定理的魅力所在。它不仅仅是一个数学公式,更是一种帮助我们在不确定性中寻找答案的思维方法。但是,实际上大多数人都不是合格的贝叶斯主义者,即便是那些本应表现得很好的专业人士也是如此。那么,人类的理性程度究竟如何呢?

下文经授权选自《贝叶斯定理:清晰思考与决策的科学工具》。

500

《贝叶斯定理:清晰思考与决策的科学工具》(中信出版集团,2025年5月)

撰文 | 汤姆·奇弗斯

翻译 | 韩潇潇

贝叶斯定理是决策论的理想模型。如果你能把所有相关信息都考虑在内,那你就能以最佳方式确定先验概率,并根据新信息对其进行恰当的调整。虽然这只是理想情况,但为了尽量做出最佳决策,我们还是得尽量参照这种方式。不过,我们到底能在多大程度上实现贝叶斯模型呢?

过去的几十年里,为了研究人类到底有多不理性,科学家们做了大量的调查研究(决策论中,“理性”指的是按照最有可能实现某个目标的方法去行动。这一目标既可以是赚钱,也可以是实现世界和平,甚至可以是用口香糖去搭建一座 27 米高的大楼。即便是一件公认的蠢事,你也完全可以按照“理性”的方式去完成它。——译者注),其中最著名的一项应当是丹尼尔·卡尼曼和阿莫斯·特沃斯基的合作项目——这两个人都是犹太裔心理学家,丹尼尔·卡尼曼凭借该项目获得了诺贝尔经济学奖(阿莫斯·特沃斯基当时已经去世,诺贝尔奖从不颁给已故之人)。

有研究表明,某些情况下我们并不擅长判断风险。1978 年的一项著名研究表明,在面临“你认为自己有多大可能会遭受一些不好的事情”这个问题时,人们往往不会根据该事件在整个人口中的背景发生率去思考,而是会站在更简单的角度,比如“我是不是能很容易地想到一个实际案例”去思考。在心理学中,这种现象被称为“可得性启发法”,它可以解释为什么我们会觉得夸张的、难忘的、能上新闻头条的冒险行为或危机事故比无聊的事情更为常见,比如很多人认为死于恐怖袭击的人数比死于安全事故的人数多得多,埃博拉病毒比糖尿病危险得多。

我们经常会犯一些逻辑错误,比如很多人认为“比约恩·博格(瑞典前男子网球运动员,职业生涯总共拿下11 个大满贯,曾连续多年称霸世界。网球比赛的赛制一般为五盘三胜制,也有些是三盘两胜制。——译者注)输掉第一盘”的概率,比“比约恩·博格输掉第一盘但赢得了整场比赛”的概率还低,尽管从逻辑上来说,比约恩·博格不可能既输掉了第一盘,又在没有输掉第一盘的情况下赢得了比赛。类似地,很多人认为“里根政府会为未婚妈妈提供财政帮助,同时削减对地方政府的财政支出”的可能性,比“里根政府会为未婚妈妈提供财政帮助”的可能性更大,尽管里根政府根本不可能在不做第一件事的情况下同时做两件事(这两个例子来自丹尼尔·卡尼曼、阿莫斯·特沃斯基于 1981 年进行的一项调查研究)。

或者更直观地讲,在决策论(上一章曾提到)当中,事件 A 和事件 B 都发生的概率,必然小于等于事件 A、事件 B 单独发生的概率,用符号表示就是 P(A,B) ≤ P(A)。所以“比约恩·博格输掉第一盘”的概率,不可能比“比约恩·博格输掉了第一盘但赢得了整场比赛”的概率还低。这类谬误一般被称为“合取谬误”(conjunction fallacy)。

500

丹尼尔·卡尼曼、阿莫斯·特沃斯基于 1981 年的另一篇论文中表示,很多人都会产生一种被称为“框架效应”(framing eect)的认知偏差。具体来说,假定你正在向人群宣布,社会上暴发了一种新型传染病,预计会导致 600 人死亡。防治方式有两种:一种很确定,但只能救一部分人;另一种不确定,但有可能救下所有人。丹尼尔·卡尼曼、阿莫斯·特沃斯基发现,同一件事的不同措辞,会让大家做出不同的选择。

如果你告诉大家,第一种方案肯定能救助 200 人,第二种方案有 1/3 的概率可以救下这 600 人当中的每一个人,有 2/3 的概率一个人也救不了,那么近 3/4 的受访者会倾向于第一种方案。

如果你用相反的方式告诉大家,第一种方案必定会导致 400 人死亡,第二种方案有 1/3 的概率不导致任何人死亡,有2/3 的概率导致 600 人死亡,那么有超过 75% 的受访者会倾向于用第二种方案赌一把。

这两种表述方式,或者说两种框架,在逻辑上是等价的——在本例中,“400 人死亡”就意味着“200 人获救”。然而措辞不同,人们的态度也会不同。

类似的研究结果还有很多,这些研究结果促成了各种以“人类竟是如此不理性的生物”为主题的书籍,比如丹·艾瑞里的《怪诞行为学》、斯图尔特·萨瑟兰的《天生非理性》。在某种程度上,丹尼尔·卡尼曼的《思考,快与慢》也是其中之一。

虽然书很多,但这并不意味着它们粗制滥造——其中涉及的大部分心理学研究都经得起推敲,尽管 2011 年达里尔·贝姆事件引发可重复性危机之后,人们对类似的实验产生了一些疑虑。面对类似问题,人们的确经常会给出矛盾的、不理性的答案。需要指出的是,丹·艾瑞里于 2012 发表的一篇论文最终被发现存在虚假数据,自此以后他的研究工作便受到了一番严查。虽然丹·艾瑞里表示自己绝对没有编造过数据,但他也说不清这到底是怎么一回事。

丹尼尔·卡尼曼的书也引用了大量和启动效应相关的心理学研究,这些研究中有很多都遭到了质疑,就像我们在第二章中介绍可重复性危机时的情况一样。但框架效应绝对是真实存在的,人们的确会错误地预估风险或危机,也的确会根据“自己有多容易想到一个相关案例”做出错误判断。

此外,人们也不擅长把先验概率和新信息结合起来。换句话说,大多数人都不是合格的贝叶斯主义者,即便是那些本应表现得很好的专业人士也是如此。1978 年,一项著名的研究邀请了 60 名医学人士参与调查,其中有 20 名医学生、20 名实习医生、20 名医学专家,全部来自哈佛大学医学院。调查中有一个问题是“现在有一项疾病检测手段,该疾病在人群中的发病率是 1/1000,如果该检测手段的假阳性率是 5%,那么一个拿到阳性结果的测试者,有多大概率真的患有这种病(假定你对该测试者的症状、体征一无所知)?”

读到这里,你应该已经可以很轻松地算出答案。我个人倾向于将人数假定为比较大的数字,比如 100 万。根据问题描述,这100 万人中会有 1000 人患病,999000 人没有患病。在没有患病的999000 人当中,这项检测会产生 49950 份假阳性结果。因此,假设这项检测能正确识别出全部的 1000 名患者,那么得到阳性结果的测试者真正患病的概率就是 1000 / (49950 + 1000) ≈ 0.02,即 2%。

对医生来说,这是一项很重要的数据。但 1978 年的研究显示,60 名医学人士中只有 11 人给出了正确答案(每组答对的比例差不多,医学生的表现并不比专家差);有接近一半的人给出了“95%”的答案——这些人根本没考虑该疾病在人群中的发病率。

很多其他研究也得到了类似的结果。2011 年的一篇论文邀请了多位妇产科实习医生参与调查,其中有一个问题是:“已知每1000 名女性中就有 10 名患有乳腺癌,这 10 名患癌女性去参加检测,会有 9 人得到阳性结果。剩下的 990 名健康女性去参加检测,会有 89 人得到阳性结果。现在有 1 名女性拿到了阳性检测结果,她想知道自己是否真的患有乳腺癌,或者至少知道自己患有乳腺癌的概率是多少。你该如何回答她?”

这个问题更简单了——它直接告诉你真阳性有 9 人,假阳性有89 人,你只需要算一算 9/(9+89)是多少就行了。然而在参与调查的 5000 名医生当中,只有 26% 的人给出了正确答案。

以前我会认为,这些实验可以反映出人类是一种极度不理性的生物。现在我不这么想了。我们已经知道做出理想决策必须用到贝叶斯思想,我们也知道人类在大多数情况下可以做出正确决策——比如大多数时候我们都能成功地找到食物充饥,找到屋檐避雨,都能走路多看两旁以免被车撞——这说明我们在很多事情上都是很理性的。所以我认为,“人类的认知偏差实在太严重了”这样的结论,实际上大部分都是在说“跟论文作者相比,其他人的认知偏差实在太严重了”。

其实只要信息能够以恰当的、常见的方式呈现给我们,我们通常就会表现得极其理性。

这就是延斯·科德·马德森的观点——他是伦敦政治经济学院认知心理学专家,主要研究方向是人类的理性行为。他表示:“如果你坐在屋里,花了两个多月的时间,费尽心思才设计出了一个行为学实验,那或许说明,你的实验和日常生活离得有点远。或者说,这种实验的设计感太强了。只要你看看人们在日常生活中的表现就会发现,90% 的情况下大家都可以做出正确决策。如果我想买一杯咖啡,那我肯定能够想到可以去咖啡店购买。”

他举了另一个例子,该例来自彼得·沃森于 1966 年进行的一项著名的、旨在说明人类有多蠢的实验,后来该实验又被人们称为“沃森选择任务”。该实验具体如下:桌上有 4 张牌,每张牌都有两面,一面是数字或图案,另一面是人物或动物。4 张牌朝上的一面分别是星星、数字 8、年轻女性、兔子。如果现在有人告诉你,“如果某张牌有一面是数字,那它的另一面就会是动物”,那么为了验证他的话是否属实,你应当去翻哪一张牌?

500

别犹豫!尽快给出你的答案!

我先随便打几个字,空出几行来,以防你不小心直接看到答案。

再多打一行。

好了,实验表明,大多数人会把“数字 8”和“兔子”翻过来,毕竟这很符合直觉,因为他的言论是关于数字和动物的。然而这是错的,正确答案是,你应该把“数字 8”和“年轻女性”翻过来。

这纯粹是亚里士多德式或者乔治·布尔式的逻辑。该命题可以简化为“如果 X(牌的某一面是数字)为真,则 Y(另一面就是动物)为真”。

你有两种方法可以证明该命题是假的。第一,你可以找到一个X 成立,同时 Y 不成立的例子;第二,你可以找到一个 Y 不成立,同时 X 成立的例子。所以你既可以去找 X,也可以去找非 Y。

你可以翻开“数字 8”,如果背面不是动物,那“如果某张牌有一面是数字,那它的另一面就会是动物”这个命题就是假的(“X成立,同时 Y 不成立”)。

你也可以翻开一张非动物的牌,如果它的另一面是数字,那也可以说明该命题是假的(“Y 不成立,同时 X 成立”)。

如果你翻开了动物牌,发现背面不是数字,那这无法说明该命题是假的,因为“如果 Y 为真,则 X 为假”无法证明“如果 X 为真,则 Y 为真”是假命题。

如果你答错了,那也没什么好担心的。尽管这个问题我已经见过很多次了,也知道问题在设套,但有时候我仍然会被绕进去。当初彼得·沃森在调查时发现,回答正确的人还不到 10%,之后的重复实验也取得了类似结果。

通常这类论文会在结论中指出,人类极容易产生“证真偏差”(conrmation bias)——人们更愿意为了证明既有观点去寻找有利证据,而不是为了证伪某个假说去寻找不利证据。

延斯·科德·马德森认为这类实验有点故意设套的意思:“比如你现在是个学生,正在参加一个派对。你很清楚这个派对不应当向未成年人提供酒精饮料。”(声明一下,我 20 岁才上大学,根据英国法律,我可以合法饮酒,但为了给大家举例,我得装作自己是个 6 年级的小孩。)

延斯·科德·马德森假定了这样一种情况:“现在校警来检查了。你发现你的四位朋友都在端着杯子喝着什么东西,你知道其中有个人 21 岁,还有个人 16 岁,但你不知道这两个人具体在喝什么。剩下的两个人,一个在喝橙汁,另一个在喝啤酒,但你不知道这两个人的年龄。”

没错,这实际上就是“沃森选择任务”的一个变种。你可以把这四个人想象成四张牌:

500

显然,你需要检查一下喝啤酒的那个朋友的年龄,以及那个16 岁的小孩具体在喝什么。延斯·科德·马德森表示:“这种情况下,每个人都可以做出正确选择。那个 21 岁的朋友可以随便喝龙舌兰,那个 16 岁的朋友也可以随便喝橙汁,这都没问题。”这不是延斯·科德·马德森空想出来的结果。他在自己的学生当中做了测试调查,发现把问题换成“未成年喝酒”之后,所有人都可以做出正确选择:“这种情况下,所有人都只会检查那两个人,以确保派对能够继续开下去。”1992 年,两位进化心理学家做了一个类似的实验,他们发现 75% 的受访者都能答对问题,但如果把同样的问题换成更抽象的逻辑描述,那答对的人就只有不到 25%。

延斯·科德·马德森表示:“每本教科书都会提到‘选择任务’,以展示人类到底有多么不理性。可事实果真如此吗?如果我们面对的是一些很生活化、很自然的问题,我们还会表现得这么差吗?”

“如果你非要用极其抽象的问题去测试别人,才能证明人们是不理性的,那这个结论还有什么说服力吗?这难道不是特例吗?你实际上就是在告诉受访者,‘因为你在这个非常抽象的、设了很多陷阱的问题上表现得很差,所以你就是一个充满认知偏差的人,你根本不会想办法去证伪事物’,这样做未免太苛刻了吧。尤其是当你把问题换成更常见、更生活化的表述方式,几乎所有人都能给出正确答案时。”

事实似乎确实如此:如果问题是大家熟悉的,那人类就会在推理方面表现得非常好。斯蒂芬·平克从人类学家路易斯·利本伯格的研究结果中借用了一个例子——来自非洲南部的“桑人”的故事(桑人又被称为布须曼人(布须曼人的叫法来自英文单词Bushmen,意为“丛林人”,含有一定贬义。——译者注),以狩猎采集为生)。直觉上来说,人们很难相信非洲南部以狩猎采集为生的部落,可以进行贝叶斯式的推理,但斯蒂芬·平克认为他们可以。

豪猪的脚上有两种肉垫,其中一种是“近端肉垫”(“近端”是解剖学术语,特指靠近臂膀的那一侧),还有一种是“中端肉垫”(你的手掌就属于这种)或“趾垫”(长在爪子附近)。蜜獾的脚上只有一种肉垫,即近端肉垫。通常情况下,爪印可以显示出所有的肉垫,但有时爪印只能显示出部分肉垫,比如在地面过于坚硬的情况下。桑人可以明确区分“蜜獾留下只有一种肉垫的爪印”的概率,以及“只有一种肉垫的爪印是蜜獾留下的”的概率,前者是概率推断,后者是统计推断(反概率)。他们知道,只有一种肉垫的爪印,可能是豪猪留下的爪印的一部分。另外,桑人还会考虑先验概率:如果他们发现了一个模糊难辨的爪印,那他们会认为这个爪印更有可能来自常见动物,而不是稀有动物。这正是贝叶斯分析法的运作原理。

现代生活中,大部分人也能出色地进行贝叶斯分析。为了得到“人类是极其不理性的生物”的结论,很多实验者还会设下另一种思维陷阱——他们会向受试者播放同一段演讲,然后告诉一部分人演讲者是他们喜欢的政客,告诉另一部分人演讲者是他们讨厌的政客,两部分人的反应会呈现出巨大区别。

延斯·科德·马德森表示,这完全就是频率学派的思维方式——假定人们在做决策时只能利用当前的信息。事实上,在评估某位政客的言论时,我们完全可以将自己对该政客的诚实程度的先验判断考虑在内,这是一种很理性的做法。延斯·科德·马德森和几位同事在 2016 年发表了一篇论文,该论文调查了大量美国选民,向他们展示了某项政策,然后告诉他们这项政策得到了某位政客的支持或反对,最后问他们这项政策是好是坏。12 实验涉及的 5 位政客是总统候选人中关注度最高的 5 位——民主党的希拉里·克林顿、伯尼·桑德斯,共和党的杰布·布什、马尔科·鲁比奥、唐纳德·特朗普。

论文作者让 252 名受试者对这些候选人的可信度和政治能力进行打分(我简单说一下结果:伯尼·桑德斯在可信度方面的平均分最高,希拉里·克林顿在政治能力方面的平均分最高,唐纳德·特朗普在可信度和政治能力方面都得到了最低分)。然后论文作者向受试者展现了一项虚构的、不明确的政治政策,告诉他们某位政客支持或反对这项政策,最后让受试者谈谈自己对这项政策的看法。不出所料,受试者对政客在可信度方面的先验判断,会影响他们对该政策是好是坏的判断。更有意思的是,论文作者发现大家的表现非常符合贝叶斯分析法——先验判断对后验判断的影响程度,非常符合贝叶斯模型的数值。

延斯·科德·马德森表示:“这意味着,受访者实际上是在说‘我不信任他,所以他支持的政策肯定也不是什么好政策’。这怎么会是非理性行为呢!这只能说明不同的人对同一位政客有不同的看法。”

通常来说,我们最好把认知偏差当作启发法的副产物——启发法可以让我们跳过复杂的数学计算,以抄近路的方式直奔结论。前文提到的“可得性启发法”其实在大多数情况下都很有效。虽然在分析“校园枪击”这种高危事件时,它可能没什么用,但分析“骑自行车闯红灯会有多大概率让我惹上麻烦”这种日常事件时,跟调查数据、展开计算相比,它就是一种便捷、高效的方法(甚至很可能和计算一样准确)。我们还可以用抛接球来举例。如果你想用数学解决抛接球问题,那你就得计算抛物线轨迹、计算你的速度和球的速度、计算接球的具体时间和位置,复杂程度远超想象。用道格拉斯·亚当斯的话来说就是:

影响球体飞行轨迹的因素有重力、初始位置和速度、空气阻力、球体周边的湍流现象、球体的旋转速度、旋转方向等。然而,就算某个人连 3 × 4 × 5 都不会算,他也能瞬间完成一次抛接球,表现得好像他可以在瞬间完成前面那一系列涉及大量微积分计算的难题似的。

实际上我们并不会做类似的复杂计算。板球运动中,外野手看到球飞向边界、准备跑去接球时,他并不会真的当场做一套微积分运算,而是会采用一种被称为“凝视启发”的便捷方式。心理学家格尔德·吉仁泽表示:“凝视启发指的是将视线锁定在球上,然后开始奔跑,一边跑一边调整速度,确保自己一直以同一视角盯着那个球。”这一过程不涉及任何数学计算。实验表明,动物中也存在类似的现象——狗在接飞盘的路上,会让飞盘在视野中保持同一位置,就像外野手的方式一样。

500

实验发现,棒球运动中的接球手用的也是这种方式。因为如果他们真的可以立即算出棒球的运动轨迹,得出棒球最终的落点,那他们就会全速、笔直地跑向落点,然后站在那儿等待棒球落下来。然而事实是,为了保持棒球在眼中的视角不变,他们会在行进过程中不断调整自己的速度,路线也并非直线,而是略微弯曲的曲线。

凝视启发几乎与轨迹计算一样精确,但操作难度要低得多。二战期间,英国皇家空军也使用了凝视启发的方法去引导战斗机拦截轰炸机,因为他们发现这种方法比轨迹计算快得多。AIM-9 空空导弹等制导导弹在攻击敌机时也用到了凝视启发的方法。

人类在不确定的情况下做决策时,也会用到类似的方法:跟复杂的条件概率计算相比,启发法既省时又省力。只不过在有的情况下,尤其是人为的、实验室的条件下,启发法没那么好用,有时还会误导我们产生所谓的认知偏差。

延斯·科德·马德森表示:“这种例子比比皆是。那些论文作者每观察到一种新的现象,就会说他们发现了一种新的认知偏差。但总的来说他们并没有一个完整的理论框架,就像达尔文之前的生物学一样。很多所谓的偏差甚至彼此矛盾。”比如,现在有三种认知偏差,其一是近因偏差,即我们会过于看重近期的证据;其二是锚定效应,即我们会过于看重第一印象;其三是频率偏差,即我们会过于看重最常出现的东西。延斯·科德·马德森表示:“我们在做决策时,怎么可能同时看重最先看到的东西、最近看到的东西、最常看到的东西?”

延斯·科德·马德森认为:“我不是说,人类总是理性的——有时我们也会翻车掉进沟里。可是,谁能说得清证真偏差和认知偏差哪个对人类的影响更大、哪个对日常行为的影响更深。难道人类真的是一种超级不理性的生物,每时每刻、每件事都在犯错?我可不这么认为。”

不过,人类做出非理性的决策时,确实会遵循特定的方式。一个经典的例子是,“9·11”恐怖袭击后的几个月内,美国人在长途出行时会更倾向于自己开车,因为他们害怕坐飞机。2009 年的一篇论文指出,这种现象导致车祸死亡人数增加了 2300——约为恐怖袭击死亡人数的 2/3——事实上,坐飞机比开车安全得多。虽然这可能只是我的个人政治偏见,但我还是想说,美国政府“为了降低本来就很低的恐怖袭击风险,宁愿花费几万亿美元去入侵伊拉克和阿富汗,也不愿意为了降低全球性流行病的风险去花费一分钱”的决策,在当时的环境下是一种非常不理性的行为,后来的事实也能证明这一点。

不过在不确定的情况下做决策确实不是一件容易的事。我们无法获取所有相关信息,更不可能用贝叶斯公式把所有信息整合到一起,算出具体概率。我们能做的,就是想办法找到一些捷径,比如启发法。从贝叶斯方法的角度来看,我们靠直觉、本能做出来的决策并没有那么糟糕。

即便是疫苗有害论的支持者,做出来的决策也符合理性——如果你不怎么信任公共卫生医疗体系,那你就会先验地认为疫苗也不值得信任,所以医疗专家提供的新证据也很难改变你的看法。从先验概率的角度来看,你的做法可以说是相当理性。如果有人想说服你,让你相信疫苗的安全性,那他最好的办法并不是向你罗列一堆医疗专家的证词,而是尽全力帮你建立起对公共卫生医疗体系的信任。延斯·科德·马德森表示:“或许是因为你的先验概率太烂了。即便如此,也没什么关系,贝叶斯方法也可以让你意识到这一点。”

延斯·科德·马德森还表示:“不管怎么说,站在贝叶斯方法的角度来看,虽然人们有时会出现一点认知偏差,但基本上还是很理性的,大部分情况下的表现都挺好。然而这一结论有点太平凡了,候机厅里的那些畅销书不可能写这些东西。可我觉得,平凡恰恰体现了其不平凡之处——这不是说明我们所有人都是理性的人吗?如果人们真像那些论文所说的一样,一天到晚全是认知偏差,那人类怎么可能取得这么多成就呢?各种复杂的学说是哪儿来的?那些高楼大厦又是哪儿来的?我们有时确实会犯错,也的确不擅长做某些事情,但整体而言,我们还是挺理性的。”

不过话又说回来,在评估概率这件事上,人类并非总是表现得那么好。下一节我们就来讨论一下这个问题,之后我们再分析一下如何才能做得更好。

本文经授权节选自《贝叶斯定理:清晰思考与决策的科学工具》第四章《生活中的贝叶斯思想》。

本书推荐理由

1. 颠覆认知的“万物理论”

贝叶斯定理以简洁公式揭示复杂世界的不确定性规律,从医学检测到AI决策,从法庭证据到科学实验,重新定义我们对概率的认知。

2. 跨学科的实用指南

医学决策:揭秘癌症筛查误诊率真相,解读新冠检测数据背后的逻辑。

法律与AI:剖析“检察官谬误”,展示DNA证据的局限性;拆解ChatGPT等AI技术的底层贝叶斯逻辑。

日常生活:用三门问题、超能力谣言等案例,教会读者理性应对信息陷阱。

3. 历史与科学的双重叙事

传奇人物群像:从牧师贝叶斯到统计学家费希尔,还原定理诞生背后的思想交锋与人性故事。

科学革命现场:重现“可重复性危机”等现代科学困局,揭露p值滥用如何导致研究结论失真。

4. 大脑与认知的终极解码

神经科学突破:用贝叶斯原理解释视错觉、致幻剂体验,提出“大脑是贝叶斯预测机器”的颠覆理论。

精神疾病新解:探讨精神分裂症患者为何无法自我挠痒痒,展现意识形成的数学本质。

5. 写给普通人的硬核科普

零公式恐惧:作者以自嘲式幽默消解数学门槛,用扑克牌、赌局等生活场景化解抽象概念。

时代共鸣:结合新冠疫情检测争议、阴谋论传播等热点,提供对抗信息泛滥的思维武器。

500

特 别 提 示

1. 进入『返朴』微信公众号底部菜单“精品专栏“,可查阅不同主题系列科普文章。

2. 『返朴』提供按月检索文章功能。关注公众号,回复四位数组成的年份+月份,如“1903”,可获取2019年3月的文章索引,以此类推。

站务

全部专栏