能“理解人类问题,并一本正经地胡说八道” 就已经说明GPT4的能力了

【本文由“创新者的任务”推荐,来自《马斯克等科技人士呼吁暂停训练比GPT4更强大的AI系统,是我有了你不能有?》评论区,标题为创新者的任务添加】

  • 经济暴君
  • 你向chatgtp询问自己专业的问题,它给出的第一答案基本上是忽悠、糊弄。

    如果你发现了错误,告诉它你错了,它马上就承认了。

    这个模型训练的基础就是我先按照数据库里的信息糊弄你一下,如果你说错了我就改,这样逐步的减少它自己的错误,这样持续训练下来的一定是个忽悠大师。

    比如它搞的假论文链接,假数据引用,就是这么训练出来的。

    也就是说你如果真的想让它搞点有用的东西出来是不可能的,车轱辘话一套又一套。

    但是ai绘画和ai视频制作就非常的好用,因为这个领域只要足够“像”,就真的变成真货了。

这不恰恰证明了GPT4的高应用性吗。

比如你这段评论,也是在“对GPT4底层机制一无所知”的基础上一本正经的胡说八道。(没有贬低的意思)

但难道其他人类,比如我,就要因此否定你的基础智识能力?

车轱辘话本来就是人类语言的特色之一,对人类个体而言,在不触及并深耕相关领域知识的情况下,最好的选择是沉默,但是如果有不可抗力,要求你不能回避答案,那可不就得一本正经的瞎扯吗?

我觉得你话语中的“数据库”,可能有种误解,你是不是以为GPT4是一个可在线联网实时搜索,或者说离线使用时,本地拥有大量现成数据资料的百科全书啊……

它只是一个语言模型啊!

还有,它在你的纠正下承认了自己的错误,也不是因为它“真的理解自己上文具体哪里出错了”,而是它“理解”了你新反馈中的否定含义,选择重新抽奖,再次组织单字接龙罢了。

对语言包裹的信息做价值判断(对与错),是人类自己的事,跟AI本来就没关系。

过往的那种搜索引擎式的思维,不再适用AI时代了。

以前的互联网搜索,本质上是你直接跟其他人类的信息对接,搜索引擎只复杂通过关键词架桥,那准确性当然高,但信息区间过大,需要人工摘选。

而AI聊天,其实是一个人机对接的窗口,只是把你的自然语言尽量吃透,然后翻译给机器听,仅此而已。

所以chatgpt更像是一个玩具,是openAI拿来展示应用性的,有价值的不是gpt4本身,而是它背后代表的通用语言模型。

千万别把它理解成科幻电影里全知全能的“机械神”。

它必将改变互联网生态,因为它击碎了人机交互的门槛。

还有,对AI绘画方面,你依然在用“像”这个字来描述,说明你潜意识里还是觉得AI是在搞临摹和拼接……

站务

全部专栏