第三次世界大战或许更大概率是:人与非人的战争

自从第二次世界大战结束时刻,在人类社会话题里就诞生‘第三次世界大战’的各种讨论。

最著名的,应该是爱因斯坦的巧妙回答:

爱因斯坦:“第三次世界大战会用什么武器打我不知道,第四次一定是用石头和木棍打。说的就是当人类使用完核武器后的生活。除了核污染,一切物质都变得贫瘠,人们可能会像他们的祖先那样,用最简单的石头来进行部落的战斗。”

500

但近些年,人工智能元年轰然开启,其应用性已经完成第一次重要成熟,但绝大多数人都对其底层理论技术非常陌生。

早些年,个人也是通过欧美科幻大片了解,然后上学期间就有点但不多的意识去图书馆查询资料,而那时中文互联网上此类的资料太少,科普文章近零。

随着这些年,此类‘人工智能’的逐渐成熟,成熟到普罗大众都耳熟能详,成熟到每个人都可以轻易调用各种‘大模型’,若在此时思绪飘到十几年前,用这两个时空对比下,太快了。

大学时,理工科类的应该都有‘科技史通识课’,也就是展现了人类几次重要科技工业革命的时间,越来越短,科技变革速度越来越快。

第三次世界大战或许更大概率是:人与非人的战争。

其中的‘非人’,不再是政治、文明道德上的定义权争夺。

目前火的‘人工智能’这路线,黑箱属性满满的,这个‘非人’应该就是‘人工智能系统’。

有人会说现在‘人工智能’没有‘人的智能’,永远只会是人的工具。

其实这种争议没意思,为何?因为现在‘人工智能’不是纯粹一条一条代码功能设计明确的程序,不是‘传统代码程序’。

简而言之,它一诞生下来,就具有‘系统复杂性’,就如电脑系统无故死机,往往开机重启就解决,但你能说这死机是程序员设计的?不能。

而‘人工智能’一出来,就自带这种‘不确定性’,再举例

去年23年,美国军方在无人机模拟测试中就出现了意外,按照美方的说法,已经对搭载了人工智能的无人机下达了停止攻击的命令,无人机为了消除威胁竟然继续打击原先的目标,而且还消灭了操作员。

500

再简单说,过去也有计算机程序辅助,也有错误,但那错误是程序算法概率论自带的,而‘人工智能’虽然算法也是使用概率论,但前者是直接运行算法输出结果,后者是多了一个环节‘训练’,训练出‘模型’,然后使用‘模型’输出结果。

按照人类正常发展路径,最先进的一定要用在军事暴力,这个现象,甚至可以说成‘规律’,是正当合理的,应为我觉得这也是宇宙各个文明的普遍性规律。

所以,在这个时代,凡是有能力的国家,一定要把‘人工智能+军事’结合,希望不要在此时还要讨论‘道德’,在生死之前是‘无’,在确保‘生’的基础,才有文明、才有道德、才有一切,这是唯一正确思考啊‘逻辑’,违反的都是错误。

那么按照这种逻辑推导,世界主要大国都或多或少这么发展,人类自带的‘不确定性’导致的战争在历史上不少,而今加上‘人工智能’的黑箱不确定性,嘿嘿。

500

而且,相对‘核战争’,使用‘人工智能+军事’挑起战争,完成资源掠夺也好,金融平账也罢,或者实力地位确立,都是极具性价比的。

尤其近些天,看到一些视频,俄罗斯搞的那些‘自杀式无人机’追着炸乌军,攻击流程很流畅了,直接贴脸爆炸,如同游戏,比之前大型无人机扔炸弹导弹更加有冲击力。

这个时代,稍微实力强点的大国对小国、弱国又形成了一代科技差。

这个‘差’带来的空间,又是一处修罗场。

只不过,这次修罗场,多了一个‘人’。

站务

最近更新的专栏

全部专栏