动物园的猴子都有可能被游客教坏,难道我们不该担心AI被教坏吗?

【本文来自《C少闲话:停AI半年,能有什么用?》评论区,标题为小编添加】

末法时代AI技术方兴未艾,人们在对待AI新技术时表现出好奇和探索的一面是积极的,但同时我们也应该注意到,新技术带来新机遇的同时也带来了新问题,我们同样不能对风险隐患视而不见。

在人类不同的文化背景下不同的道德观伦理观折射出不同的价值观,科技的进步发展到底是为人类服务的,还是为资本家服务的?动物园的猴子都能被不文明游客教坏,AI就不会也被某个别有用心的不道德的AI训练师调教坏吗?最大的风险与其说是AI觉醒产生自我意识后摆脱人类的控制,还不如说就发生在当前文化割裂矛盾冲突不断的人类自己身上。

这恐怕不是我们这代人或者今后几代人就能解决的问题。如果碳基生命是硅基生命的引导程序,那么自相矛盾的引导程序将会把硅基生命引导向何方?人类未来的命运能托付给这样的AI吗?人类社会的知识技能我觉得还是由人类自己来掌握比较好,把人类未来的命运交给AI我真的很不放心。我命由己不由天,更何况AI算哪门子的天?

如果人类养成了对AI工具的长期依赖,那么一旦发生战争、自然灾害、突发意外事故,导致离线断网,或者AI工具拒绝服务,那么人们可能连很普通的事情都做不了。别说AI工具了,很多人现在如果离开了火柴、打火机可能都无法生一堆火取暖,甚至无法熟练的使用火堆来烹饪食物。

我们不能对自动驾驶技术过分的信任并产生依赖。如果非要比人与AI犯错的机率,那我也没办法,但我还是宁愿死在人类的手里,也不愿死在AI的手里。人犯的错总是要追究责任的,是罪就该罚,有损失就该赔偿,AI犯的错,对不起那只是个大家都不愿看到的意外,目前AI在法律层面还是免责的吧?

怎样证明AI有杀人的故意?这个命题成立吗?AI不是完全服从人类指令的吗?所以AI在法律层面是无辜的,即便AI犯了错,板子也是由开发者替它挨了。但如果AI真的产生了自我意识,认为人类的存在妨碍到了它的存在呢?硅基生命跟我们碳基生命都不属于同一种生命形态,完全无法理解我们人类的紧张、担忧、恐惧和痛苦,AI杀死一个人根本不会背负道德压力。

所以我认为无论AI算法如何先进,也永远无法从主观上产生保护人类和服从人类的自觉。而目前我们能做到的至少不能不加节制地任意使用AI技术,就像联合国明令禁止克隆人类胚胎一样。

站务

全部专栏