人类的思维没想象的高级,且在具体的生产中也没想象的那么富有创造性

【本文来自《马斯克“宫斗”GPT-5》评论区,标题为小编添加】

  • 大智本行加V
  • ChatGPT与智能没半毛钱的关系,它就是一个在一堆肯尼亚劳工人工教导下的“人工智障”。ChatGPT全称叫做Generative Pre-trained Transformer基于转换器的生成式预训练模型,这个Transformer其实是NLP自然语言处理领域的一个大语言模型,有两个典型代表,一个是谷歌的BERT用Encoder训练,另一个就是GPT用Decoder训练适合于大型文本生成。BERT和GPT又分别是两种NLP模型的代表,前者属于双向预训练语言模型,后者属于自回归预训练语言模型,NLP的核心业务逻辑不是思考,而是“猜概率”——概率相关性分布的建模,根据数据投喂、历史经验、人工反馈来猜测要说什么,BERT是完形填空擅长理解语言,GPT是从左往右写作文擅长文本生成。ChatGPT就是GPT的3.5版本,它实际上已经吃掉了三分之二的互联网和整个的维基百科,并做了人类偏好优化,即人类反馈强化学习。它会什么完全取决于互联网上有什么,它的回答都是互联网知识的平铺,没有重点,不是它真的懂。未经训练领域基本上是一本正经在胡扯,无法处理特别冗长或者专业的语言结构。它需要极大的算力来支撑,让它变“聪明”的成本是很贵的。它还无法实时地利用新知识来训练参数,并且可能像熊瞎子捡苞米。ChatGPT暂时是一个黑盒模型,无法保证它是否会做出一些比较有伤害性的回复。它没有思维、感情、意识,与真正意义上的智能没有半毛钱的关系。没了互联网和维基百科的信息,它的智力就像白痴。说明它根本就没有智力。

    虽然它不是真正的人工智能,但由于它是NLP自然语言处理领域的一个大语言模型“基于转换器的生成式预训练模型”,所以,中国还是应该关注和投入其发展,只是对它的定位不要搞错了。

人类的思维没有你想象的高级,而且在具体的生产中也没有你想象的那么富有创造性。

具体而言:

1,已经有程序员做过尝试:虽然GPT不能编写一个复杂的程序出来,但是软件工程师把一个大程序按照逻辑拆成许多个非常基础的程序,让GPT编写这些基础程序,然后按照顺序“组装”。那么ChatGPT可以完成这项任务,他们声称可以节约95%的工作量,毕竟GPT还能改BUG。

2,很显然这种事情推而广之,除了编程,还有许多事情都不具有创造性。

  比如说智能驾驶。而GPT-4就是为了在图像上取得突破。

 而且就人类“智慧”本身而言,也是基于超强的图像分析能力。

  所以如果GPT-4能在这点上慢慢突破的话,就能在许多工作上提高生产效率。

3,最后,你以为人的“智慧”是怎么一回事?人类就真的理解了各种事物吗?

  就我个人的经验,所谓的理解,你能在遇到某些事情时,能调用相关的知识和信息,从而把这个事物看成另外一种东西。

  如 “物理学家的真空球形鸡”,如“拿着锤子的人看什么都像钉子”。这些谚语的确在批判人的思维要开放,不能太过偏颇。但是这些谚语也反过来证明,人类对事物的理解,本身就是偏颇的。

  人类理解事物的过程:客观对象→通过眼睛等传感器把对象映射在大脑的存储神经上→大脑开始一系列处理(处理1:视觉部分的自动简化删除和脑部。处理2:分析对象的特点,简化,从而方便记忆。处理3:分析该对象的特点,对象和其他记忆的信息的相关性,从而产生关联,这就是举一反三。处理?人类大脑还有计算和推理功能,但是大脑非常不擅长做这件事情,需要消耗更多能量,而且计算机也会。处理?人类大脑还有其他未知超能力,毕竟现在脑科学不够完善)。

  好了,对比而言,你说GPT的自然语言处理技术,就是人类大脑去理解事物的处理方法之一,所以凭什么说GPT没有理解?

站务

全部专栏