中国高科技公司又再做一件治标不治本的事情?

【本文来自《 北京:支持头部企业打造对标ChatGPT的大模型》评论区,标题为小编添加】

这么搞,感觉又是在治标不治本。人工智能被大众认识,那是alphaGo,然后是alphaGo2打败韩国围棋九段李世石。那时候,人工智能采用的CNN和DNN计算机神经元网络,后来有了RNN,当然最看好还是2015后的LSTM神经元网络,它是一种RNN的变种。人们曾经很看好这个LSTM,但是随着2017年谷歌的transformer模型的出现,所有重点转向了这个最新的Transformer,GPT的全称是,Generative Pre-training Transformer, 说明这个GPT也是采用了 Transformer的模型,Transformer 这个字,在游戏里,翻译成 变形金刚,这里有些翻译成模型,有些翻译成转换器,Generative Pre-training Transformer 直译就是 预先训练的可自我生成内容(或者说答案)的转换器。

谷歌在设计这个transfomer的初衷是为了解决语言翻译的问题,当发言者说出第一个字,要预测他后面可能说的字,比如,有个笑话里说的, 有人在台上发言说,”我是省委书记,“停顿了一下,下面的人以为他是省委书记,拼命鼓掌,他接着说,”派来的“,下面的人,顿时鸦雀无声,作为人工智能等待机器人,它也要判断,第一句话之后,后续可能出现的句子,并对此做出及时反应,而不是像过去,要等到整个句子讲完才翻译。这个问题,跟当初的alphaGo遇到的问题类似,当菜鸟棋手,下一步棋,他可能就只能看到下一步,而带段位的棋手至少可以看30-40步,而alphaGo可以看到百步以后,这里面真正的牛,是CNN神经元网络。而谷歌的Transformer利用了很多的CNN。

Transformer是谷歌的核心技术,是为了自然语言处理和翻译设计的,而OpenAI这家的公司利用了这个技术完成了今天的ChatGPT,如果中国的高科技公司只是看到了ChatGPT的成功,跟着ChatGPT的模式,去学习OpenAi 在聊天机器人的模式,而忽略了OpenAI是如何从通用的Transformer入手,把谷歌提供的最基础的东西学到手,并用在自己应用上发扬光大,那还不是在做一件治标不治本的事情?

全部专栏