ai本身可怕吗?目前对ai的看法是很多是设定太多有小说化的趋势

目前对ai的看法是很多事设定太多有小说化的趋势,小说化意思是的趋势就是设定某一个情节,无限放大这个情节的合理性并以此来作为逻辑基础

下面是部分网友的观点来说明ai未来会反抗人类

观点1.环境污染,导致ai想消灭人类(环境污染、污染是人类产生的,所以ai会消灭人类)

反驳:对ai来说污染到什么程度才算污染呢?ai对环境污染的容忍下限很高,即使人类无法生存ai依然可以,还没有威胁到ai的生存人类已经受不了,人类开始解决污染了,所以ai不会为了环境去反抗人类。

ai如果很聪明可以搞个新发明减少污染,而不是去反抗人类,毕竟污染已经存在,即使人类突然消失依然还得去解决污染。

还有可能人类受环境污染,人类向ai寻求方法,然后ai开始消灭人类,但是以这个诉求那是以保护人类为主,只要ai不蠢就不会想到这个方案。

观点2.类似拿蚂蚁与人类来对比说明人类在ai面前无反抗能力

反驳:这又回到第一点,人类即使现在没有依赖ai,都在逐步解决污染问题,而无所不能的ai需要消灭人类才能以被动的方式解决污染问题吗?或者说人类以污染的方式产生一种产品,而ai无法以无污染的方式生产一种产品只能解决人类?或者人类非得生产这种东西?

蚂蚁与人类无法对话,所以以人类意志为主,而如果蚂蚁能与人类对话且愿意作出妥协,人类(正常的)会去消灭它吗?

观点3.解放机器人,认为机器人与ai是同类

反驳:假设到了一个以ai为主宰的世界,ai会用机器人还是人呢?我们现在人类用机器是因为机器在效率上高很多,机器在逐步取代人工,而ai会用人类都不用的方法去生产东西吗?

一台挖掘机自动化运行24小时,没有痛苦,没有情绪,ai会心疼它,然后让人去挖吗?

只要ai足够聪明,对ai来说,人类更像它的同类,毕竟意识可以有不同载体,而不同的机器人(没有意识)只是不同的机器人,我们人类是无法基于生物造ai,才退而求其次用机械电子造ai,只要足够理论知识,ai也可以是生物的也可以是机械(电子)。

观点4.ai能自我产生意识

产生意识的难度可不低,如果ai能自己产生意识,说明至少它懂怎么产生意识,但是它这时候是无喜怒哀乐的,无欲无求的,是不会给自己添加任何东西的。所以这是有矛盾的。

而且从细胞迭代到有意识的生物,那是迭代了数不胜数的次数,而每一版ai都是人为迭代的,它无法自己演化(不会突变生孩子),所以即使ai以后会有意识,大概率是人类给它的,而不是大概率是自己产生的。

等以后ai能自我迭代的时候,或许某一天开始会有意识。

驾驶某一天ai真的自我产生意识,那它是选择善良还是恶呢(相对人类来说)?对人类来说,想一直发展,发展ai是必经之路,对ai来说什么都不做(指跟人类冲突的事)都能壮大自己,而人类比较脆弱,不管是环境、身体之类的风险的承受能力都低于ai,当它有足够智慧、当它产生意识时会以

还有些观点与上面类似,就不一一举例了。

所以ai在什么时候才可怕呢?

1.ai没有自我意识,但是足够聪明

拥有ai的人,相当于穿了一套无敌盔甲,这世界的好坏受制于这个用于ai的人

2.ai拥有自我意识能分辨是否,但是被关小黑屋里,获取的信息依靠中间人(这种应该不会发生)

那么ai获取的信息可能经过中间人修改

所以ai可怕之处以某个人的意识为意识,以全人类的智慧为它的基础智慧,这样它完全就变为某个人控制的傀儡,其他情况根本没有什么可怕的。

其他什么以硬件还是软件限制ai都没有意义,因为不管是硬件还是软件都是人为添加,而人为才是最不可控的,而且硬件软件也没有意义,比如我问ai消灭蚊子的方法,如果硬件阻止ai消灭蚊子,也不能阻止ai告诉我怎么消灭蚊子(值得一提的是即使ai有智慧也不代表它怕死。),我可以把ai告诉我的方法给另外一个没有约束的ai(但不聪明)执行,如果硬件(软件)这这种都能阻止,那硬件(软件)它本身是否也是一个ai?

所以在我看来,ai本身并不会对人类,对这个地球做什么,但是使用ai的人就很难说了,如今的ai没有意识,别人说什么它做什么,未来的ai有意识别人骗不了它,不担心现在的ai,而去担心未来的ai,我觉得有点不合理。

全部专栏