关于人工智能文明取代人类文明的可能的思考

  • 杞人忧天!

    首先跟大家说,所谓的强人工智能,也就是完全取代人,不需要人参与的机器人,能推理和解决问题的智能机器,并且,这样的机器将被认为是有知觉的,有自我意识的。可以独立思考问题并制定解决问题的最优方案,有自己的价值观和世界观体系。有和生物一样的各种本能,比如生存和安全需求。
    这样的强人工智能,是不可能存在的。
    因为今天所有的计算机都是图灵机的实现,哥德尔不完备定理、图灵不可计算理论等一系列的研究证明,如果智能源于计算,那么计算机是不可能建立“自我”概念的,除非你认为今天的数学还不是宇宙中的公理。
    一位网友,也是邮电教授说:
    读研时,数学系一位老师给我们上课,用一句话终结了人类按照冯诺依曼结构搞出人工智能的可能性:有限个零级无穷大,不可能模拟一级无穷大。但就是这么浅显的道理(在科技界内部),当时竟然没人站出来说明。

回复2

  • “数学系一位老师给我们上课,用一句话终结了人类按照冯诺依曼结构搞出人工智能的可能性:有限个零级无穷大,不可能模拟一级无穷大。但就是这么浅显的道理(在科技界内部),当时竟然没人站出来说明。”
    这个问题,还请答主,写篇文章详细说明,给小白们
  • 已注销用户 ... but I wanted a pony!
    你老师的这个讲法是成问题的。现在除了少数人,Penrose是最著名的代表,大多数研究者都认为人脑内部也没有什么神奇的不可言说的结构。既然人的智能与自我意识可以从人脑中出现,而其中又没有生理学或者物理学意义上具有超越属性的奇妙构造,那就难以藉此认为硅基芯片就一定无法出现自我意识。数理逻辑的那些不可能定理,并不能就认为是对硅基智慧体的限制。

    这是其一。其二在于,自我意识和人工智能的关系。最显著的例子就是下围棋的这个,显然不能被认为具有自我意识,然而它的水平是如此之高。以前的棋手,从当年的国象的Kasparov算起,都认为看棋谱就能分辨出机器棋手,因为它缺乏某种难以琢磨的、人类棋手才能有的创造力、想象力。现在也没人这么说了。这就说明,人工智能的“智能”,并不直接与自我意识相关联。奈何现在的大多数讨论都片面过份地强调这种关联。

    冯洛伊曼讲了个小笑话,反驳批评者。如果你能告诉他,他不能用机器做到的事情具体是什么,那么,如果他有足够的机器资源,就一定能做到这件事情。这是对数理逻辑的那几个不可能定理的精准的把握。
返回文章

站务

全部专栏