离谱!004核动力航母命名叫浙江舰?到底是真是假?
前两天,好几个网友私信军武菌,给我看这张图片。

好家伙!从图上这个小小的舰岛来看,这可是艘核动力航母啊!这18号福建舰刚服役几天啊,怎么就出来个20号浙江舰?中间的19号呢?
这张图片一出,不少自媒体马上就发了文章出来,开始煞有介事的详细解读下一代核动力航母为什么命名叫浙江舰,有哪些特性,战斗力如何……


但很可惜,不管是文章还是图片,都是假的,这纯粹是一个AI编造的假新闻。
什么,你不信?
你看我这还有广东舰、河北舰、吉林舰、天津舰。

这种图,想要多少有多少。
如果你觉得平面图可以随便改,照片肯定没那么容易,那我这里还有这样的。

▲你就说真不真吧
对应的文章,我也可以马上写出几万字来。比如像这样:

▲效率比我高多了
军武菌每天就算是不吃不喝不睡觉,最多也就能写一两万字的文章。而这些AI几秒钟就能编出一篇看起来煞有介事的自媒体文章,敞开了编,一天就能制造出几千万字的电子垃圾。于是,当今的互联网自媒体已经被各种样式的AI假文章、假新闻“全面攻陷”了。
如果单纯是被AI抢了饭碗,军武菌倒还能接受,毕竟这是时代的演变。但问题在于,如今AI技术的发展显然已经逐渐失去控制,甚至演变成了谣言的帮凶。

AI会编造谎言
如今,各种AI语言模型都存在着一个短时间内无法解决的问题:AI会产生“幻觉”。
具体来说,AI会在生成内容时“夹带私货”,比如在回答问题时编造出根本不存在的资料、数据和信息,用这些虚假信息作为论据和参考资料,或是在思考过程中做出离奇的错误判断,从而得出错误结论。


比如在今天早上,军武菌的网友询问某AI工具:45斤换算成英制单位磅,应该是多少磅?
按照正常人的思维,1斤是0.5公斤,45斤就应该是22.5公斤。1公斤大约是2.2磅,所以22.5×2.2=49.5磅,45斤应该是49.5磅左右。
结果这个AI工具一顿操作猛如虎,算出来的结果是:45斤差不多是99磅。

▲就算军武菌这种数学经常不及格的,也算不出这么离谱的结果
类似的情况还有很多次。比如一个对人类非常简单的问题:一根5米长,直径3cm的竹竿,能不能进到一个2米高1米宽的门?

▲AI给出的答案是棍子进不去
对于人类,只要不是智力有问题,都能答上这道题:肯定能啊!但是军武菌问了好几个AI,全都答不上这个问题。


▲???

▲世纪难题,棍子究竟怎样才能通过大门
对于一些比较专业的知识,AI的水平又怎么样呢?
举个例子,军武菌向某个AI模型提问,希望他介绍一下82式步枪,这是他给我的回答。

后面的军武菌就不给大家看了,因为AI写的真假参半,很多人分辨不出来。

现实中的82式步枪是上世纪70年代末由208所研制的一种自动步枪,口径7.62毫米,与81式步枪性能相似。但由于82式步枪的研发速度比较慢,定型的时候人家81式都要装备部队了,所以最后也没了下文。
很显然,这个AI是把82式步枪和后来的87式小口径步枪给搞混了,它说的这些特征几乎都是87式步枪的。至于其他部分,说的也几乎都是乱编。
有些时候,AI还会进行“左右脑互搏”。还是刚才,军武菌向某个AI模型询问F-35C能不能在福特号航母上弹射,而这个AI两次给出来的答案居然是完全相反的。


▲我指出AI前后说法不一致,它还向我道歉
军武菌每次发文章,评论区里都会有些人留言说:你说的不对!我都已经问过AI了,AI说“@#¥%……&*”,和你说的不一样!对此,军武菌非常的无语。

AI以假乱真
而且,AI生成的这些内容是真是假,很多人是缺乏辨识能力的。
之前,知名网红“李维刚”就曾经被AI“坑”过。有人找到李维刚的平台账号留言,想把自己家的鱼塘包给对方,没想到和他对话的居然是平台的AI助手!没说几句,AI助手就“自作主张”,以1.3万的价格把鱼塘包下来了。等到李维刚本人知道这回事,鱼塘里的水都已经给抽干了!


▲AI已经替他以150亿美元的价格把太平洋包了
而且,由于利用这些AI编造假消息的人只为了抓人眼球,毫无底线,编造出来的内容往往是耸人听闻的,导致传播速度极快。特别是当AI“引经据典”,罗列一大串专业术语的情况下,不要说是一般人,就连军武菌这种早早就开始接触AI的老油条,有些时候也会上当受骗。

▲AI制作的猫咪误射迫击炮的视频
所以长期以来,军武菌一直都在写文章辟谣这些AI创作的假消息。
2023年,军武菌写了一篇辟谣“缅北游轮噶腰子”假新闻的文章。文章中声称,缅甸海岸警卫队在海上发现一艘奇怪的油轮,登船检查后居然发现,这是一艘活摘人体器官的海上医院!船上还发现了100公斤被烧毁的身份证,以及4.5公斤没有来得及烧毁的身份证残片,其中96%都是中国人!

当时,AI技术还没有现在这么发达,利用AI编造假新闻还不是很流行。但进入2024~2025年,这种情况已经越来越多了。
比如今年8月份,军武菌又写了一篇辟谣文章:“中越联合军演,越南新步枪频繁卡壳被中国191吊打?”。这完全是一个“三无”新闻,既没有出处,也没有正规媒体报道,更没有事实依据,没有任何证据显示越军步枪卡壳。


后来,军武菌又写了一篇辟谣“巴基斯坦给土耳其代购歼-35,偷学中国技术造五代机”的文章。这次的谣言更邪乎了,简直就是科幻小说水平……


后来,军武菌还写过文章辟谣“巴基斯坦背刺中国,给美国提供稀土”的谣言。对此军武菌很好奇:为什么有这么多专门造谣巴基斯坦,挑拨中巴两国关系的谣言呢?

但这还没完,如今,AI造假的手段日新月异,效率也是大大提升了。
前几天,柬埔寨一名女子劫狱救出同伙的新闻上了热搜,不少营销号毫无根据的将其便造成“为爱劫狱”、“大嫂”、“东南亚第一深情”,很快成了热搜。为了更加吸引眼球,很多人还用AI工具给女嫌犯美颜磨皮,甚至生成AI视频,这也是这条新闻如此爆火的主要原因。

▲经过AI处理美颜后的照片
过去,很多人形容无良自媒体营销号造谣是“开局一张图,内容全靠编”。但现在,不光内容不需要这些自媒体去编,就连图片甚至视频都可以靠AI生成了!
更卡怕的是,这些AI生成的假消息在互联网上被反复传播抄袭,又被各种AI大模型拿去学习,和吃金针菇→拉金针菇→继续吃掉金针菇→又拉出金针菇一样反复循环。长此以往,假的也就成了真的,未来的互联网资料会混杂进多少这种虚假信息?军武菌想想都觉得可怕。



作为内容创作者,军武菌在工作和创作过程中也经常会使用AI工具来进行辅助,这些技术极大的提高了工作的便利程度,掌握AI工具的使用方法对于现代人来说是非常重要的技能。但如果这种工具被别有用心之人滥用,用AI来洗稿、造谣、挑动矛盾,造成的危害也会更加严重。

▲AI不应该成为造谣的工具
因此,我们希望大家擦亮双眼,看到这种低质量的散播谣言的AI内容,直接动手给他点个举报。而对那些和我们军武一样以事实为依据,坚持客观公正的自媒体,也希望大家能多多加以支持,把我们的文章分享给身边的朋友,这样才能制止谣言的传播。



军武次位面官方账号




