GPT-5不能停!吴恩达田渊栋反对千人联名,OpenAI CEO也发声了

  Pine 发自 凹非寺

  量子位 | 公众号 QbitAI

  千人联名要求“暂停巨型AI实验”在网上经过一天的发酵,各方声音都已经涌现出来。

  继LeCun之后,吴恩达、田渊栋等一众AI大牛也发文公开反对“千人联名”。

  吴恩达表示,在GPT-4出现之后要求AI训练暂停6个月是很可怕的事情:

  它(GPT-4)在教育、医疗保健、食品等领域都有很多新的应用,这将帮助许多人。

500

  随后田渊栋也转发并附议,称“我不签暂停令”,并将AI的发展比作囚徒困境

  一旦开始,就没有办法停止或扭转这一趋势,这就是进化的必然。

  应该换个角度继续向前看,更好地理解 LLM,适应它并利用其力量,感受热度。

500

  在吴恩达的帖子下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也都表示赞同。

500

  对于这个暂停令,还有一些领域大佬“妙语连珠”,直接yygq了起来:

  本特利学院的数学教授表示,那既然这样,我呼吁暂停碳排放6个月,这样我们就可以在此期间解决气候变化问题。

500

  谷歌大脑的高级研究员Yi Tay直接调侃,如果是把那些在网上胡乱讨论大语言模型(LLM)的人禁言6个月,我会签的。

500

  而处于这场讨论中心的无疑是OpenAI,CEO奥特曼今早也发了一条“展望未来AGI”的推文,疑似对昨天这场风波做出回应:

  一个好的AGI应该具备这三个特点:

  1、对齐超级智能的技术能力;2、大多数领先AGI之间的充分协调;3、一个有效的全球监管框架。

500

  “潘多拉的魔盒”已经打开

  在吴恩达的帖子里,除了上面提到的应用价值外,他还从竞争、风险以及AI发展的角度详细阐明了“为什么要反对暂停令”。

  首先是竞争方面,让第三方暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策。

  然后是AI风险,目前很多流媒体平台渲染的“AI公司疯狂发送不安全代码”是不正确的,绝大多数AI团队都十分注重人工智能的安全问题。

  最后再回到“6个月暂停令”本身,这并不是一个非常切实可行的建议,是在扼杀AI进步。

  要提高人工智能的安全性,应该是在安全方面进行更大的投资,有关透明度和审计的规定将更加切实可行。

500

  对此,有网友也同样聚焦“6个月的暂停”呼吁,称“要求暂停”并不能让诉求更好地被解决:

  暂停令即使出于好意,也会让更微妙、更有建设性的对话变得更难进行。

500

  当然也有人质疑起了马斯克、Bengio等人发起“暂停巨型AI实验”的动机,将其归结为巨头之间的利益之争:

500

  对于发起者以及签署者们的心理,网友直接锐评道:

  签署暂停是因为他们不信任人工智能吗?不是,是因为他们不信任人类。

500

  也有网友直接将AI发展比作潘多拉的魔盒:一旦打开,一切都不可避免了。

500

  利益之争?

  虽说我们一众“看客”并不清楚“暂停令”的发起者或签署者们是不是有什么私心,但仅仅将这条呼吁归结为利益之争肯定是不全面的。

  那为什么他们要发起这项呼吁?为什么非得是暂停六个月呢?

  先是为什么要发起这项呼吁,在那封公开信“暂停巨型AI实验”已经有讲明一些原因。

  而为什么非要暂停六个月,或许可以从赞同的声音中窥探到一些其他答案。

  赞成的网友这边,有人称正是因为AI发展像“潘多拉的魔盒”,但目前还没有被打开,还有挽救的余地:

  任何具有实验室逃逸潜力的研究都应该受到国际监管,我们应该尽力去挽回,但如果你释放了一些无法挽回的东西,我们就有麻烦了。

500

  还有一种观点是,目前的AI发展成果已经足够人类使用,暂停几个月也无妨:

  GPT-4够用了,仅仅是优化它和扩展插件就能满足至少几年的需求,我们现在需要更多的时间来理解AI如何与互联网互动,并且我认为测试越来越强大的AI是危险的。

500

  当然在这样一群争论中,还有一股清流,无所谓“AI安全”,他们自称降临派:

500

  有高赞微博直接明晃晃地称:

  我们羰基生物本来就是开启硅基生命的钥匙罢了。

500

  是对人类太失望了吗 (Doge)

  对于这长达一天多的“是否暂停巨型AI实验”之争,网友一针见血地总结:

  有的人看到利益,有的人看到文明,有的人看到热闹。

500

  但无论如何,对于“拯救派”们来说,依旧有几个问题不容忽视:

  人工智能安全的问题该如何解决?

  暂停AI发展是明智之举吗?还有没有其他方法?

  对此,你怎么看?

  参考链接:

  [1] https://twitter.com/tydsh/status/1641203830124859392

  [2] https://twitter.com/2020science/status/1641123382115864576

  [3] https://twitter.com/XRImagineer/status/1641240405525291009

全部专栏