Ai编的假新闻,已经充斥整个互联网!

作者:雷斯林 公众号:为你写一个故事 / raistlin2017

500

今天刷到个消息,让人哭笑不得。

具体看图:

500

某行业研究报告,目录里面赫然写着“煤炭,收获来自煤矿石以及击杀凋零骷髅。”一看这段就是用Ai写的。

要知道这是一份极其正式的报告,售价不菲,就连这样的东西都是用ai编的,可想而知我们生活中ai编造的假信息已经有多泛滥了。

我可以负责任的说。

你现在在微信、微博、今日头条、小红书、知乎、B站、Youtube、X、reddit...

反正这个星球上任何一个有分发推荐机制的社交媒体平台上,刷到的推荐消息,至少一半以上是用ai生成的。

随便举几个例子。

比如刚刚刷到的这条,多么典型的deepseek文风:

500

比如董明珠发言“不要海归”被舆论围攻,有人感慨恰恰因为格力多次遭背刺,导致核心技术泄露给外企,才不得不痛定思痛。

500

AI医生的风头正旺,结果很快有负面案例出来唱衰,“AI医生误诊延误治疗”。

500

500

再往前。

法国人马库斯向中国捐赠日本侵华照片,也有人认定他捐赠的是罪证昭昭的“前731部队活体解剖记录”,逼得东京首相府彻夜未眠。

500

《哪吒2》狂揽票房的时候,饺子导演被高高捧起,夸他员工福利搞得好。累归累,房子和钱两不误,大家都赚了个痛快。

500

500

DeepSeek横空出世、惊艳众人时,还有人言之凿凿夸奖它保密工作做得好,严防死守到外卖都要禁入3公里,是科技战的好榜样。

500

凡此种种,不一而足。

500

或许有很多次,你的心情被这些消息牵动着,一会愤怒一会心酸,一会感慨世界之大无奇不有,一会心潮澎湃激情昂扬。

但很遗憾,你的情绪白费了。

别看这些消息说得有鼻子有眼,有人物有对话有细节,仿佛当事人身临其境目睹了一切,但仔细查验就知道,里面提到的很多人是不存在的,很多事是时间错位的,很多冲突是虚构的。

500

它们都是AI编造的,而非事实。

但这就是如今我们的互联网。

大到国际政治与纷争,小到生活科技的发展,方方面面都充斥着AI编造的谣言。

500

甚至不止互联网,也不止写研报的分析师,现在律师也都用ai瞎编。

根据路透社的报道,美国法院对多个律师提出过警告,因为他们会在法律文件中使用AI生成的虚假信息,包括特朗普的前律师。

他利用Bard生成的判例为自己申请缓刑,但这些判例中有不少是AI胡乱编造的。

500

还有其他律师引用了AI生成的虚假案例,被法院发现并罚款2000美元。

你看,理应更有逻辑、更严谨的律师之流都如此,就别提普通网友了。

500

如今人们创造了一个新词,叫做AI幻觉,指的就是这些AI瞎编不存在的事情。

但ai瞎编叫做幻觉,人类把ai瞎编的东西当作真事发出来就纯属造谣了。

有时候甚至不是人类不小心相信了ai,而是人类就是利用ai瞎编,装成是真事发到网上。

不停污染互联网的数据库,让现在网络上充满了各种造谣瞎编的信息。

导致互联网面临巨大的垃圾信息污染。

而这些垃圾谣言信息被发出来以后,则又会被各种爬虫给抓取回去,当成是真事进行训练学习。

这样一来二去折腾个几遍,假的也被说成真的了。

500

假消息当然不是AI的首创。

但问题在于,AI编故事的效率实在太高了。

以前靠人工编假新闻,一天也就编个一两条吧,而且多半还要基于对现实的了解。

但AI不需要。

只要给出对应的关键词,它一天就能跑出几百几千条假新闻,情绪饱满,细节充实。

而它的精明之处在于,很多时候编造的不是那种纯粹的假新闻,而是掌握了真假参半的奥义,在真的故事背景以下,添加假的细节。

让人伪证起来也复杂得多。

500

同时,它降低了人类创造假新闻的门槛。

以前你想写个有专业属性的假新闻,不了解的话肯定漏洞百出,得先做功课。

你还得有点文笔,才能写得让人信服。

但AI的功课都已经存储在云端了。

于是能够合理运用那些看似高大上的专业词汇,为假新闻添砖加瓦,乍一看特别可靠。

只有进一步研究、查证才知道,它引用的论文、数据,乃至名人名言,到底是不是编的。

500

也就是说,AI大大解放了造谣者的劳动力。

如果说以前只有千分之一万分之一的人有能力造假,那么现在就是哪怕小学没读完,哪怕不认识几个字,都可以利用AI来造假。

再加之,如今是流量为王的时代。

现在大多数平台都是只要你有流量,甭管怎么来的,都能通过广告共享分成赚钱。

有些没素质的人就会故意制造假新闻来博关注,好利用别人的关注换流量。

因为只要有流量,就能拿钱。

所以他们就会大量开设这种账号,一个人开五六十个号,天天发这种AI生成的假新闻,或者这种假新闻自动生成的视频。

AI天生就会制造爆点,编出来的内容往往既囊括了时下的热点,又创造了各种立场冲突,怎么看怎么刺激,怎么看怎么耸人听闻。

500

这些内容迎合了网络的传播需求,更容易得到平台推送,从而获得流量和收益。

于是引发恶性循环

想想看,当一个热点事件发生。正经媒体得花时间查找资料,鉴定资料是不是真的,还只能发真实发生的事情。

就算使用AI当工具,也会主动做审核,去把AI提供的虚假信息给筛查出来。

而用ai编新闻的人,只要命令ai“关于这个话题,给我写一段能吸引人的文章,我要发微博吸引眼球”

不到十秒,ai就能给你编一个最能吸引视线的文案。里面各种例子各种细节,让人身临其境,仿佛在看一场实时跟拍的纪录片。

你说哪种能火?

最后必然是编新闻的ai获得更多流量,最后赚得盆满钵满。

典型的劣币驱逐良币

这不是危言耸听,甚至不是在预言未来。

这是实实在在正在发生的现实,就在你读文章的这一分钟,可能已经有上千万条ai假消息正被投入互联网。

现在,我们还在思考哪些地方在用ai生成假消息,好避雷。

可能用不了多久,我们就要思考到底哪里没被污染,哪里才有真的消息了。

500

最后的问题依旧是怎么办。

学会分辨AI创造的内容是第一步。

虽然有人觉得AI模仿人类文风已经出神入化,但看多了还是能总结出很多特征。

比如,精确的数字。

AI热衷于通过具体的数值,极尽夸张之所能,强调事态的严峻程度。

500

又比如,带有总结或列举属性的小标题。

就算没有第一、第二,也要有起承转合。每个版块还会给一个对应的抽象概念。

500

它们还爱用大词,爱掉书袋,爱上价值。

难懂程度,堪比互联网大厂黑话。

500

过多的细节堆砌,也是AI的风格之一。

谁能在战争现场注视着“胸前的共青团徽章在月光下泛着冷光”?

500

谁又能知道“巨贪受贿时都要对方把金条熔成发动机叶片形状”?

500

500

可谁能有这样的上帝视角,仿佛躲在案发现场的床底下,目击一切?没有人,只能是AI。

AI热衷于运用修辞手法。

比喻、排比、量化、夸张,都能信手捏来。但看几条就发现牛头不对马嘴,只是强行附会。

500

它还特别热衷于编排阴谋

像撰写小说一样,撰写详细的暗网交易、命运的巧合,生怕不够戏剧化。

500

总而言之,它就是会生成一堆看似有道理实则纯属虚构的内容,细究都是漏洞。

500

不过由于很多内容会经过二次传播。

所以很多时候,单凭内容本身已不足以让我们评估信息的真实性或可信度。

我们需要去了解更完整的背景和传播链接:谁和你分享了这些信息?这些信息是如何分享的?你怎么知道是他们分享的?

然后才能够判断出内容真伪。

或许这就是新时代下的网络必修课,没有什么内容是完全可信的,我们要学会追根溯源。

500

然而,以AI谣言如今的泛滥程度为参考,光靠着个人进行分辨和辟谣,远远不够。

当务之急,还是要把上面提到的恶性循环给断掉。

最好是能够通过技术手段,对AI生成的内容进行区分和明确标识,对假消息及时控制。

不要盲目推流。

尤其是涉及重大事件和敏感内容的时候,更应该谨慎一些,避免二次扩散。

这也算是用魔法打败魔法了。

毕竟现实中,开锁的师傅都得去公安局备案,更何况是这些更不受控的内容呢?

另外我也支持对这些滥用技术制造假消息的人进行重罚,要让他们知道不该如此。

人就是很容易被利诱的。当看到有利可图的时候,他们会愿意铤而走险。

如果付出的代价不够重,他们甚至会觉得就算被罚也值得,毕竟钱是真的进了自己口袋。

所以重罚才有足够的威慑力。

Ai是现在最重要的技术,没有之一。它最终一定会改变全世界的生产劳动关系,一定会改变一切。

就看人类如何用好它了。

我现在关于未来的构想里,ai都不是什么好角色,最终都会让人类活得更差而不是更好。

希望更聪明的那些人,能找到办法,让ai服务人类,而不是取代人类。

站务

最近更新的专栏

全部专栏