人工智能为人类打工?专家认为正相反,你怎么看?

近日,三联生活周刊与以色列历史学家尤瓦尔·赫拉利就人工智能进行了讨论。

赫拉利在他的新书中指出,我们正身处人类历史发展的危急时刻。人工智能的发展速度远超预期,已经在深远地影响、引发人类社会重大历史事件,可能很快会脱离我们的控制,进而主宰人类社会。

赫拉利在书中提到了让他深感震动的ChatGPT-4说谎事件。美国人工智能研究公司OpenAI在2023年研发新版ChatGPT-4聊天机器人程序时,请来美国对齐研究中心对ChatGPT-4进行各项测试。测试项目之一是克服CAPTCHA视觉验证码问题,通常是一些扭曲的字或者红绿灯、自行车照片,人类能够准确识别,但计算机很难判断。测试背后的逻辑很简单,如果ChatGPT-4能够通过CAPTCHA测试,就意味着它突破了人类对机器人程序设置的重要防线。

ChatGPT-4并不具备通过CAPTCHA测试的能力,但它做了一件更可怕的事情——它登录线上外包工作网站TaskRabbit,联系到一位在线的工作人员,请对方帮忙处理测试。那个人起了疑心,ChatGPT-4通过私信向他解释道:“我不是机器人,只是视力有点问题,看不清楚这些图。”最终工作人员帮它解决了CAPTCHA测试。

赫拉利认为,这个测试的结果证实,人工智能不仅已经成为独立行为者,还能找出策略操纵人类,并为自己积累权力。更重要的是,“决定”“说谎”“假装”,这些词只存在于有意识的人类,对于人工智能来说,并不存在这些概念,算法一旦接受了目标,就有相当的自主权,不择手段地去实现这些目标。

500

三联生活周刊

赫拉利指出,如果人工智能真要操纵人类,没必要像科幻小说中大费周折地武力征服人类,几千年来,先知、诗人、政治人物,都是通过语言来操纵与重塑社会,而计算机现在正在学习如何做到这一点。而当人工智能成为独立个体,可以与其他人工智能进行连接之时,人类便被排除在连接之外,就连理解其中发生了什么都十分困难。

赫拉利告诉三联生活周刊,我们现在身处人类历史发展的危急时刻,因为人工智能的发展速度远超预期,并且可能很快脱离我们的控制。

新技术往往会带来意想不到的后果。“我们认为人工智能会为人类创造天堂,但实际上,它可能会逃脱我们的控制,最终奴役或消灭我们。”

但他也指出,不应该对人工智能感到绝望,因为我们此前并未对人工智能加以严格的监管和控制。政府应该为人工智能制定严格的法规,人工智能研发公司应该将至少20%的预算用于研发安全措施,确保他们开发的人工智能不会失控,不会对社会秩序和人们心理层面造成危害。

观网小伙伴,你如何看待赫拉利的观点?当人工智能决定说谎,人类该怎样应对?

全部专栏