困在算法里的钟睒睒与张一鸣

500

钟睒睒又语出惊人了。

前几天,他在江西赣州考察当地脐橙产业园,谈起持续至今的网络暴力时,直接向平台开炮:“请今日头条、抖音,不要以任何所谓‘避风港’原则进行搪塞,立即撤除对我个人名誉权的侵害言论、图片,并向我个人和我家属道歉,这时间已经不短了。”

今年2月起,农夫山泉和钟睒睒本人持续受到大量严重的网络攻击。

相关谣言漫天乱飞,从水质安全,到品牌形象,再到创始人的私人品行,甚至还有最敏感的,关于农夫山泉背后有没有“境外势力”的问题。

三人成虎。谣言说多了,也会被误认为是真相。

于是不单单是钟睒睒个人名誉受损,品牌销量也损失惨重,一时间,网上见农夫就骂。

很多次,农夫山泉都选择正面硬刚,公开辟谣。

舆论正盛的3月,他们发文澄清,并追究了对方的法律责任。

5月时,他们汇总了网络上传播的所有谣言,林林总总共20条,针对每一条写出真相,提供相关证据,也进行了报案处理。

直到昨天,农夫山泉再次发布了这篇旧文,想将真相广而告之。

500

如今,钟睒睒更是敏锐地点出了问题核心——平台算法对算法的监督缺失,助长了谣言传播,造成了用户更深的偏见。

而用户不过是被利用的受害者。

那些每天活跃在网络上痛骂他的人,可能只是被虚假的、狭隘的信息误导了,以为自己可以通过这种方式来伸张正义、为民除害,殊不知自己早已是“算法受害者”。

他希望揭开这个真相 :“当你打开这些平台,看到的总是同样的内容。有人在利用技术手段,这些人造成的伤害远远超过普通人所造成的伤害。”

刚好最近看了赫拉利教授的新书《智人之上》。谈论AI技术对于人类社会的影响时,他说:“算法觉得自己发现了世界的客观事实,事实上,它只是内化并且强制落实了偏见。”

恰好与钟睒睒的观点不谋而合。

500

赫拉利说,如今的社交媒体领域,算法已经无处不在。

甚至我们可以大胆宣称,大家都活在算法的世界里。

每天打开各种APP,靠前的内容永远是被算法推荐的那些。我们自己做内容,也会发现很多内容并不能直接推送给我们的粉丝,而要等待平台去筛选。

符合算法逻辑的内容才能获得更多支持和推荐,甚至获得某些奖励。

这种做法在一定程度上助长了某些用户的气焰。为了获益,那些营销号利用话术和舆论煽动公众情绪,让别人冲锋在前,自己背后数钱。

结果让很多情绪化的谣言或阴谋论,越传越广。

500

几乎每个平台都声称自己有一套专业的算法,可以帮用户获得他们更感兴趣的内容。

我今天给一部电影点过赞,明天首页就会充斥着夸这部电影的言论;你刚刚搜索了去日本滑雪的攻略,下一秒好像全部网友都要去日本滑雪了。

但背后的问题是,我之所以看到这部电影,也是因为算法把电影推荐给了我。

也就是说,用户不能自己选择要看什么,是算法决定用户能够看到什么。

算法的出现,把行为和情绪简化为可量化的东西。

人们通过粉丝量去评价一个人,通过点赞和观看次数来判断内容受不受欢迎。

所以我们看到某个播放量很高的内容,会下意识认为它是被广为关注的,但很有可能只是因为算法把视频推荐给了所有人。

结果就是,只要算法愿意,哪怕只是一个垃圾,也可以凭借这种推荐机制获得流量。算法赋予了某些内容远超自身的“价值”。

500

表面上看,算法的出现是为了提高用户体验;实际上,它的终极目的只有一个——延长用户留存时间,增加参与度,最终转化为商业价值。

为此,算法充分利用了人性。

有心理学家统计过,文章包含的负面词汇越多,内容被分享的频率就越高。“每增加一个负面情绪词,分享次数就会增加5%-8%;每增加一个正面情绪词,分享次数就减少2%-11%。”

算法的逻辑是自主学习的结果。它们发现那些充满负面情绪的、容易引发恐慌和对立的内容,更容易得到传播,于是拼命推荐,导致网络上谣言和阴谋论横行。

《智人之上》里提到过一个极端案例。

2016年,某个缅甸穆斯林恐怖组织发动了恐怖袭击,绑架并杀害了几十名平民。随后,消息在脸书上大规模传播,并掺杂着大量假新闻和阴谋论。后来,缅甸政府军与佛教极端分子发动了针对本土穆斯林的大规模种族暴力事件,杀害了7000-20000名平民。

联合国调查后认为:“脸书在事件中扮演了‘决定性的角色’——人工智能算法主动在脸书平台上强化、推广的那些内容,煽动了针对缅甸穆斯林族裔的歧视、仇恨和暴力。”

500

我们可以从中看到很多事件的影子。

之前日本小孩在深圳被害身亡,网络发酵了大量关于民族仇恨的负面消息,最后甚至演化到有人要代表全体中国人向日本道歉,十分荒唐。

人们以为自己受益于算法,殊不知算法反过来操纵了人类。

放在农夫山泉事件中也一样。

“红色瓶盖关联日本国旗”、“农夫山泉的山是富士山”的话题虽然低智,但无一不能挑起人们最原始的仇恨情绪,结果就是它们获得了更多平铺直叙的推荐。

恶性循环之下,关于“农夫山泉”和“钟睒睒”的内容都被附加上对应的负面情绪,或是愤怒,或是仇恨,或是对立。于是情绪越来越剧烈,雪球也就越滚越大。

500    

辟谣在此刻显得苍白无力。

因为正面的事实不够有挑逗性,没办法戳中人们被谣言无限提高的情绪阈值。

此时此刻,用户的情绪和价值观已经被塑造成型,不允许旁人对他们的真理有所质疑,也绝不允许旁人持有他们所认为的谬论。

伴随着算法的加持,用户会进一步强化已有的偏见,走进狭隘的信息茧房。

这就是当下的互联网。

网络时代,逻辑被无限简化,只留下情绪感染,砸得人头晕目眩,顾不上思索太多。

事实和道理靠后,情绪和立场先行。人们的大脑已经被算法改造成新的模样,总喜欢通过抵制一些什么东西显摆自己,仿佛不抵制点什么,好像没活过,没法让人记住。

结果抵制来抵制去,没有人能独善其身。

纵观过去一次次舆论风暴,结果总是,网暴者终将被网暴。

之前有位女士请外卖小哥帮忙给家人送物资,事后给了200元感谢费,还把故事分享在网络上,本意是感谢对方的体谅和友好。

明明挺让人感动的一件事,到了网友眼里就变味了。他们觉得这位求助人给的打赏钱太少了,“至少要给500块”,完全在“精明地算计外省人”。

声势浩大的攻击声涌来,这位女士承受不住,选择结束自己的生命。

血的代价没有唤醒任何人,反而让事情愈演愈烈。又有人将先前提出质疑的那些微博整理出来,新一波人涌向他们,发起了新一轮网暴。

枪响以后,没有赢家。

除了平台。

500

张一鸣说,“算法没有价值观”。但算法却会为了达到目的,不择手段。   

赫拉利在《智人之下》中,也表达了这种担忧。

OpenAI曾对ChatGPT-4进行过识别视觉验证码的测试。可怕的是,ChatGPT-4本身没有这种能力,却通过任务转嫁,联系到外包工作人员。它以“我不是机器人,只是视力有点问题,看不清楚这些图”为理由,说服了对方,最终通过测试。

这就是人工智能的可怕之处,它没有撒谎、伪装等概念,只想着完成目标。

算法也一样。

赫拉利说:“算法如今已经能够独立决策,能够学会工程师没写进程序里的东西,可以决定公司高管决策之外的事情。这种独立决策能力使得算法可以影响、引发重大历史事件,而人类则面临着对人工智能、对未来失去掌控的可能。”

不知不觉,算法裹挟了身处其中的每个人。

500

当然,这并不意味着平台应该置身事外。

互联网的出现扩展了信息来源,但问题在于“信息并不等于真理与真相”,所以平台应该对信息的真实性起到审核的作用,不该假装看不到那些有问题的内容。

至少应该管控算法推荐的内容,让那些虚假的谣言、容易产生对立的言论,得到及时控制。

缅甸种族暴力事件发生后,脸书发布公告,将散播仇恨言论的责任转移到平台用户身上,只表示自己没能有效监管用户生产的内容。

很多平台也会在舆论风波后,对跳得格外激烈的账号进行封禁。

他们熟练运用“避风港原则”,认为平台接到通知后及时删除侵权内容就无需承担责任。

但复盘农夫山泉的风波,大量攻击、谣言和阴谋论像“红旗一样飘扬”在平台上。

500

此时此刻,平台不能够假装自己看不见、不知道。 

“红旗原则”或许才是更适用这种情况的法则。当侵权事实显而易见,像“红旗一样飘扬”时,网络服务提供者不能假装看不见,或者以不知道侵权为由推脱责任。

在这种情形下,即使权利人没有发出删除通知,网络服务提供者也应当承担侵权责任。

当你买到一瓶劣质的牛奶,超市和生厂商都要承担责任,这是天经地义的。

而现在,谣言就是那瓶劣质的牛奶,谣言发布和传播的平台也应该负起自己的责任。

用钟睒睒的话来说,“任何一项在盈利平台上发布的谣言,平台都应该承担法律责任,这就像我一个制造企业,生产假货和销售假货同罪。”

商人固然要考虑流量和利益,但一味追名逐利,不是长久之计。

“如果我们不付出额外的努力,让天平向有利于真相的方向倾斜,随着信息增加得越来越多、越来越快,就可能让相对稀少而昂贵的真实信息被淹没在相对常见而廉价的信息之中。”

毕竟那些负面的垃圾信息看多了,只会让人觉得疲惫和抗拒。

久而久之,大家只会抗拒这个虚假的互联网世界,平台反而会失去它的用户。

最好是,让平台考虑如何发挥自己的优势,让健康信息得到扩散,让垃圾信息被抑制,才能真正实现互联网最初的意义,“要让世界更开放,更有创造力,并最终变得更好。”

我们渴望看到的,永远是不同观点的自由碰撞,而非不同立场的隔阂、对立与撕裂。

全部专栏