对于人工智能(AI)的发展必须警惕和限制
现在以CHATGPT为代表的生成式人工智能AI非常热。但是我觉得必须严密限制人工智能(ai)的研发和发展的范围,要警惕其对人类可能造成的危害。
我在知乎上查询关于人工智能是否能产生自我意识的文章,看到专家说:人工智能一定会产生自我意识,还有说:人类对于自我意识产生的知识是非常浅薄的。再结合看到用图灵测试测试CHATGPT的结果居然是,无法判断屏幕后另一端到底是人还是电脑(图灵测试是指测试人工智能具有人类智慧的能力)。
这些令我很吃惊,毕竟就是在电影里电脑反抗人类的描写也是电脑突然有了自我意识,可人类现在居然连人工智能是否有自我意识都无法确定。要知道现在每分钟每秒钟都有成千上万的知识和数据被录入CHATGPT的电脑,一旦它有了自我意识,其后果不堪设想。
通常称某人在做危险的动作是说,在作死的边界上反复试探。可现在人类在人工智能上的做法是,连危险的边界都不知道在哪里,就在猛力推进。这就如同婴儿在把玩着一把枪。
我曾经对技术的发展持开放态度,当时我认为技术不会对人类发展造成危害,不会让人类被淘汰,只会创造出更多的岗位,历史上就是这样的,尽管技术不断在发展,但是就业人口是在不断增加的,就如同汽车取代马车一样,尽管没了马车夫和养马的工作,可创造出更多的如:汽车司机,汽车修理工,汽车设计和制造等的岗位,没必要对技术的研发进行限制,当然可以对技术的应用进行一定的限制。
可当我看到CHATGPT可以写作和绘画的情况,我认为原来的想法是有漏洞的,历史上人类之前开发的技术都是功能性的技术,它所对人类发展的促进的史实不能代表创造型人工智能可能在未来对人类造成的影响。
原来我只考虑到功能性技术的发展,对于创造型人工智能技术的发展没有考虑到,我曾经一直认为只有人才能胜任创造性工作,电脑或者说人工智能是做不到创造性工作的,现在CHATGPT的发展动摇了我这方面的看法。
所以我重新更正一下我的想法,功能性技术包括功能性人工智能发展还是可以允许的,比如:像视觉识别、语音识别等是可以的,可创造性的人工智能的研发,比如聊天,绘画,写作等应该被禁止,这里要区分,比如:写作时的提词功能,绘画里的修图功能等都应该算功能性的。
创造性的人工智能的研发必须在人类对自我意识的产生有充分的了解后,在对产生自我意识的几个关键因素做出抽离和限制之后,才可以开展。
有人会觉得对于创造性人工智能的发展,会让人类的生活和工作更加轻松,放弃它就会让人类的生活变差。不要搞本末倒置了,人类使用奴仆、机器和电脑等,是为了让它们帮助人类,而不是为了让它们有可能完全取代人类,哪怕只有一丝一毫的可能性都不行,它们必须是只能依附于人类而存在。
人类的文明史告诉我们,对奴仆的使用是有禁忌的,作为主人不能太懒了,不能什么事情都交给奴仆做,要掌握主人的地位的话,有些事情就必须亲力亲为,同时这些事一般对奴仆来说也是禁区。古代斯巴达就规定黑劳士(奴隶)不得触碰武器,如果发现某个黑劳士握着武器,那么就得处死他。
我认为机器、电脑和人工智能等只能是人类的工具,它甚至不该是奴仆,工具是不能有思想的。
创造性的工作必须只能由人类来做,人工智能只能做功能性的辅助性的工作,这个在相当长的时间里应该是铁律。既然生物研发中有伦理审查,那么对于人工智能方面也应该有类似的审查,不通过审查就不应该进行这方面的研究。
马斯克真的是个睿智的人,我记得好像最早就是他对人工智能的发展提出警告,现在又提出开发人体嵌入芯片。我想禁止某些人工智能的研发是属于被动防御,而开发人体嵌入式芯片属于与机器进行竞争的应对之策,毕竟基于生物的进化和发展还是有极限的。
但这样仍有问题,首先如果把辅助人脑的电脑限定只能装在人体内的话,即只是嵌入式芯片的话,就同样的技术水平,可以在体外存在的电脑的体积可以远比只能装在人体内的嵌入式电脑要大得多,这样的条件下竞争,人天然处于吃亏的状态。而如果把辅助人脑的电脑允许是存在于人体以外的话,那么怎么保证这个电脑不会影响、干预甚至是危害到人体呢?比如:你脑子里冒出一个想法,你怎么保证这个想法是你自己想的,而不是其他东西给你的呢?