需要批评一下观网的同志们,过度批判closedai和chatGPT是无意义的

【本文由“可爱的虎子”推荐,来自《无限制即可使用chatGPT意味着拐点出现》评论区,标题为小编添加】

可以看出楼主归根结底还是不懂ai的。

我认为closedai壁垒不够高,竞争会很激烈,一些投资者对营收有不切实际的预期,未必能活得下来。不过,这三点每一点都不成立。首先第一点是完全不成立的。对于llm,一切对话都是有意义的训练数据,而个性的数据没有太大意义。这意味着对于chatgpt的训练而言,某人在使用时产生的具有个性化特征的数据相比海量不带有个性化特征的数据是没有优势的。甚至可能对训练产生负面影响。虽然个性化数据可能对市场部门分析用途有意义,但对于模型本身的训练、研究和发展是没价值的。楼主产生这样的误会,是生搬硬套了上个世代ai主流应用用户画像推荐的逻辑。第二点,如果市场上只有chatGPT,这样说还有点道理,然而市面上是有竞争对手的。且它的用户并不都是因为好奇心。chatGPT已经有不少现实用处,尤其是在程序员群体中。对chatGPT来说,不考虑因此产生的语料数据,那些纯粹因为好奇而去使用的用户本来就是浪费资源,哪怕花了钱也一样;倒不如放开了和claude之流竞争。对于closedai而言,本来他们就没指望过靠个人用户赚多少钱。第三点同样来源于楼主对closedai做法的不了解。实际上现在的模型到底是什么规模?还是8个专家200B的MoE吗?付费用户和收费用户用的是一样的模型和算力吗?closedai到底是靠个人用户聊天赚钱还是靠api赚钱呢?虽然现有路线未必能赚多少钱,讨论这个问题起码要先把事实搞对不是吗?

之前sora发布,我批评了胡编等国内媒体人瞎咋呼,免费给closedai忽悠投资。现在也需要批评一下观网的同志们。过度批判closedai和chatGPT是无意义的,敌人不是什么都会做错的,事情的对错要从根本上是不是这样来去看,这就需要专业的知识。很多同志们有这样的认识:“chatGPT只是玩具”、“工业ai是根本,通用llm是资本游戏”、“llm没有用,美国领先都是虚的,正是金融掏空实体的体现”。其实这些都是不对的。楼主这篇文章里把通用大模型和专用模型对立起来,现实中是没有这个冲突的。首先通用ai是研究的最终目的,它是一个像人类一样思维的ai系统,如果可以实现,那么一切专用ai都可以由它实现,只需要很低的人类介入。现在的llm(大语言模型)远不是通用ai,也没有任何原则限制llm必须完成通用工作,只是llm背后的transformer和类似架构在自然语言方面比较好做,其研究聚焦在这里而已。实际上llm之所以突出是在其突破了传统rnn的规模限制,因此可以超过过去的效率和准确性对符号序列自动建模。llm既可以是聊天机器人,也可以是作曲机,也可以做基因序列预测。更复杂的,也可以是作家、教师、程序员、驾驶员乃至科学家。llm集中在人类语言上,只是因为人类自然语言比其他所有极端复杂的东西都容易获取、处理和评估,又比其他任何容易获取、处理和评估的东西极端复杂。因此基于人类语言的大模型其架构可以更快速的创新、验证和迭代。通用大模型之所以是焦点,是因为它是研究和发展的中心和捷径。通用模型的研究会产生很多其他研究很难产生的新知识、新技术,这些通用模型产生的知识和技术就可以拿去使得工业ai有潜力做得更好。所以,chatGPT的确是好的,是人类向实现通用ai迈进的一步,不是什么玩具。诚然,围绕closedai有很多不理智的追捧,但通用ai作为人工智能发展的最终目标,不能因为我们要去否定closedai而去否定。事实上,llm研究很重要,我们搞出比chatGPT更好的llm也很重要,我们主导ai研究向通用ai迈进更是重要。我们不缺天才,但如果我们过于强调工业ai和专用模型,贬低通用llm和其他ai基础创新的重要性,天才也不得不出国寻找投资实验新架构,或者不得不每天做重复机械的特化应用模型训练。时代已经变化,我们必须开始在基础研究上领先,否则永远都在追赶,永远都被动。嘴上说别人学closedai是跟在美国人后面,但如果不敢做基础创新,新成果都是别人做出来的,那是哪门子自己创新没跟在别人后面?基础研究的特点就是会有大量的钱扔进水里,如果舍不得这个研究通用大模型的开销,只敢做小规模的专用模型,那才真是永远跟在别人后面。closedai非常惊险地蒙对了,所有的真正的创新,真正的第一个都有这样的特征。ai的发展,到底是技术推动的。没有人工神经网络,就只有分支判断的专家系统,能有什么应用呢?只有perceptron,又能有什么应用呢?因为有了各种各样的根本性的新技术新观念,才有了多姿多彩的应用。而对通用ai的追求就是技术和观念进步的最基本推动力。如果不用做通用ai研究,只研究专用模型就够了,那当初人工神经网络就根本不会诞生了。

最近更新的专栏

全部专栏