根据用户喜好推送,就是精神鸦片?

昨天在“观风闻”看到了@李晓鹏的一篇帖子,题目叫《我为什么建议你卸载“今日头条”?》

他是这样说的:

《今日头条》这个东西,就是个精神鸦片。你喜欢什么,它就拼命给你推送什么。让你产生一种吸毒的幻觉,仿佛整个世界都在按照你喜欢的方式在运转,越看越high,无法自拔。但真实的世界显然并非如此。长期看这样的东西,会让人的思想变得偏激而狭隘,不利于我们在思想上的成长。

随后他举了个例子,说朋友被今日头条认定为爱国人士,看了更多中国强大、秒杀美国的文章,不仅轻信,还在朋友圈里转发,所以李晓鹏才有了这样的卸载建议。

李晓鹏说的对不对?

Yes and No

500

从现状描述来说,李晓鹏讲的当然对。不仅是今日头条这样的算法推送,很多公众号也是如此,吸引、固化一个读者群,成天看同质化的内容。它们不是今日头条,但也完全符合李晓鹏所说的,“天天看这些东西,除了把自己看得很high以外,于国于民、于人于己,实际都没有任何用处。”

但“你喜欢什么,它就拼命给你推送什么”和精神鸦片,不能划上等号。

现在的问题,你可以说是技术滥用,可更符合人类历史发展逻辑的描述,是技术的“超前应用”。

有的朋友可能会想:算法推荐那么傻,怎么也叫超前?他哪里超过我了?

恭喜你,能这样想的朋友,已经会抢答了……哦,不对,是已经把AI甩在身后了。

你为什么说AI傻,因为它还太依赖人。专用的AI可以自己学围棋,但推荐AI没办法知道你究竟需要什么。

怎么办?那就需要用户自己调教AI,听上去很傻,可之前都是这么过来的。比如语音识别就要你亲自训练,虽然科大讯飞现在已经做得很好,但如果有谁口音特别重、特别奇葩,恐怕还得自己多多训练AI。

语音还是显性的,可以用积累的大数据,覆盖各种口音,但AI不是肚子里的蛔虫,怎么知道偏好?所以在未来很长时间,AI在这方面还是继续傻。

说了半天,我们都在说AI傻,哪里就超前了呢?

因为大部分读者不像你那么懂,知道AI要训练的道理,所以推荐算法到他们手里,就变成精神鸦片了啊。

比如说,我既喜欢看FBI warning,又喜欢看CIA warning,那我接触一个有算法推荐的程序时,就要主动地看两种东西,培养AI。如果一时兴起,连看了一个星期的FBI warning,之后再也看不见CIA warning了,那你能怪谁?

但这样培训完之后,我不还是把自己固化了?

没关系,当你需要某方面的新内容时,随时可以强化训练AI,修改自己的偏好。

李晓鹏说:“一个人思想的进步,一是要看一些比自己想得深刻的东西,二是要看一些跟自己观点不同的东西。前一种看着深奥难懂,后一种看着令人反感。总的来说,都不是令人舒服的。但唯有在这样的精神磨炼中,我们对世界的认识才能有所深化,而且从中学会宽容和理解。而这两种东西,《今日头条》是不会推送的。”

真正能够这样磨练自己精神的人,肯定有训练AI的意愿和毅力,对不对?

而且推荐算法在这样的人手里,甚至可以训练成学习新领域的跳板,成为有效的工具。

反过来说,不是这号人,不管你用不用推荐算法,都不可能是一个脱离低级趣味的人,也就像我这样看看FBI warning了。

我不敢揣测多少人是后一种,太伤感情了,比谈钱还伤感情。但我可以揣测,当今中国广大的推荐算法用户,其实大部分不了解算法的基本原理,甚至没听说过,也没有意识到它变成精神鸦片的可能性。

这就是所谓的“超前应用”。

但不要低估人类整体的适应性,我们现在最多只能算是互联网一代,被AI“坑”很正常,但当AI一代诞生时,训练一些与个人偏好相关的AI,就将像我们刷微信一样是基本技能,所以对未来,我并不担心。

而对于我们这一代,我觉得看在XX的份上,能拉一把的还是可以拉一把。比如李晓鹏就可以劝那个朋友了解下推荐算法,教他训练AI,而不是一卸了之。毕竟未来的推荐算法应用只会越来越多,卸载既不是授人以鱼,更不是授人以渔,而是让人直接不吃鱼。

最后想说,李晓鹏是观察者网的优秀作者之一,过去写过很多精彩的文章,欢迎大家在“观风闻”里关注他,他的主页链接是:http://user.guancha.cn/user/personal-homepage?uid=220813

全部专栏