再强大的人工智能,也仅仅是“能干好某件事”,但“不知道自己在干某件事”

【本文来自《124位科学家联名批判!这个理论究竟是不是伪科学?》评论区,标题为小编添加】

  • guan_16714191991717
  • 延申一下,高阶理论可能“否定"人工智能 (机器不太可能突然有了高阶构造);  而IIT理论可能"支持”人工智能 (只要特定物理结构超过某个界限值,既然器官都被认为可能产生意识的话)?

    非常有意义的研究,希望科学家们继续争鸣。  

兄台也许应该先搞清楚“智能”与“意识”的区别。

实际上,就目前发展的图灵机来说,无论其计算能力(换句话说也就是其“智能”)有多强,也是永远不可能产生意识的。

就好比一台超级电脑,它的计算能力也许是我的一亿倍,数据库容量更加是我的一万亿倍。我和它下棋,它可以轻松计算、检索出最佳的策略,每次都打败我;和它互动,无论输入什么问题,它也可以从大数据中计算检索出最佳答案,次次都给我(对我来说)有意义的反馈。

但是,问题是:我知道自己是在下棋,但是一台图灵机,无论其多么强大,它都不过是在应答指令而已。——区别仅仅是运算检索的速度、数据库的容量诸如此类。

换句话说,再强大的人工智能,也仅仅是“能干好某件事”但“不知道自己在干某件事”。

正如一台超级电脑,会下国际象棋但“不知道自己在下国际象棋”,会模仿下棋但“不知道下棋的意义”。

这是图灵机的本质就决定了的,因为它不过就是某种指令性的体系,哪怕你再怎么通过随机、混沌、无序性之类地来模拟,也依然只能是模拟,改变不了它是指令驱动的本质。

而要想产生人工意识……必然要走新路,当然首先人类还得先彻底搞清楚意识到底是什么,人类目前连这一步都没有完全迈出去呢,其他的就更不用说了。

但是有一点是清楚的:“人工智能”绝对不是“人工意识”。

而且,小猫小狗连一加一等于二都未必算得出,智能基本为零,但是照样产生了意识。因此想通过人工智能的功能上的不断强大、从而“量变引发质变”出现意识,我看是不可能成功的。

最近更新的专栏

全部专栏