宇树科技王兴兴在浙江上了一堂什么课
从“绝不做人形机器人”到“All in”,王兴兴首次自曝“打脸”史。
作者丨YP
编辑丨沈三又
来源丨盒饭财经(ID:daxiongfan)
封面来源丨浙江组工
王兴兴的身份和标签越来越多,是宇树科技创始人,是90后企业家,是“杭州六小龙”之一的掌门人,近期他又成了一名“老师”。
据“浙江组工”消息,4月10日晚,人工智能通识及应用网络专题培训第四课邀请宇树科技创始人、CEO、CTO王兴兴,以“机器人产业的现状及发展趋势”为主题,用亲身经历分享机器人产业发展案例,从不同角度讲述因地制宜发展新质生产力的经验。王兴兴并不是一个吝于分享的人,他一直活跃在知乎上,分享他关注到 Tesla 机器人 Optimus 的设计细节,讲述自己大一寒假如何 200 元手搓了一个双足人型机器人,回答 2021 年春晚上的机器牛和波士顿动力机器牛的区别,关注模型训练的稳定性。但他鲜少出现在讲台上、直播间,这样系统地和大家分享他理解的 AI 和机器人。
2025 年春节联欢晚会上,全国人民都看到了宇树科技的人形机器人,但大众并不知晓,在 2023 年之前,王兴兴的态度一直是“绝对不做人形机器人”。
究竟是什么扭转了他的理念?这次分享中他也首次正式阐述了背后的思考。他对 AI 和机器人的理解,有着浓重的“王兴兴”特点——搭建 AI 如同造房子,逻辑和 Transformer 架构中的多头注意力机制底层很相似。他的思维是跳跃的,直播中,嘴巴总是跟不上脑子;也因为自己走过学习的弯路,他在这样的讲台上一遍遍建议小孩子也可以“玩”AI。在演讲中,王兴兴还用“接地气”的语言和概念向浙江干部们解释了 AI 和机器人的一些技术,并分享了自己对产业的判断及思考。本文根据王兴兴的直播整理,核心观点如下。
1. 人形机器人发展还比较早期,马上要在工厂或家里用起来,在全球范围内还是一件不太现实的事。
2. 人能做到的事情,人形机器人理论上都能做。
3. 目前AI入门基本0门槛,不需要花钱,小学生也可以玩。如果从小开始玩个十年,肯定是可以玩得很好,而且也不需要有心理负担。
4. 通俗讲,深度神经网络模型的构建,和建造一个房子很像。我们造房子时,用现成的砖头、水泥、钢筋,只要把它搭起来就行了。你拿它里面的一些模块,把它拼在一起,就可以构造一个神经网络。
5. AI体系跟逻辑推理的本质很接近。大语言模型目前都是建立在 Transformer 架构中的多头注意力机制的基础上,和逻辑推理非常接近。
以下为王兴兴分享实录(有删改,未经本人审核):
1. “我们绝对不做人形机器人”
我是宇树科技的创始人兼CEO王兴兴,我们公司成立于2016年,到现在为止差不多快9年了。早些年,我们主要做高性能的机器狗,2023年开始做人形机器人。
2013年到2016年,当时在上海大学读书期间做的XDog这款小型纯电驱动的四足机器人。这款机器人开创了全球低成本高性能足式机器人技术方案的先河,比BD(Boston Dynamics,美国波士顿动力公司)早一年公布。
来源:王兴兴账号知乎截图
为什么这么说?
这款机器人本身成本是比较低的。大概是2013年大学期间,我想到了这个技术方案,又觉得它值得商业化,所以想着要不要要辍学创业。我们这一代人听着很多辍学创业的故事长大,当时我也萌生了这个念头。不过当时也只是想想,因为那个时候产品没做出来,也没有什么资源和资金。
2013年到2016年期间,我把这款机器人做出来了。2015年,我带着这款机器人在上海参加了一个比赛,拿了二等奖,赚了8万块奖金。因为研发投入大概是1~2万元,所以这也算是我赚的第一桶金。
刚参加比赛时,这款机器人还只做了一半,比赛过程中慢慢继续做。到了决赛,这款机器人基本上可以下地走路了。这款机器人涉及到的电控技术、电路板、控制算法、机械结构等技术都是我一个人做的,所以哪怕我花的时间比较多,但也收到了不错的结果。
2016年左右,我们在国际上全球机器人圈火了一把,有人愿意买我的机器人、有人愿意投资,后来才有了辞职出来创业的事。
大家也知道,过去几年,国内外四足机器人、人形机器人都比较火。那阵子很多用的很多都是MIT Cheetah mini(麻省理工学院研发的四足机器人)的开源方案。这个方案是在2018年左右开源的,开源以后很多国内外公司用它的方案去做机器狗、人形机器人。
实际上,开源方案里用的电机和我用的电机是一模一样的。2015年左右,MIT的教授发现我这样一个学生也可以用这种低成本的方案做出一个性能比较好的机器狗出来,所以他就重新做了一个方案出来,然后又把它开源了。
这也是为什么我们公司在过去几年,在全球范围内大家对我们的认可度相对比较高。
这是非常难得的一件事情,也是时代给我们的机会。很多领域,要在全球获得真正的有知名度或认可度是非常难的。很多品类里有公司把这部分市场做了,哪怕后面产品价格很低且性能很好,很多情况大家都不认可,觉得你不是开创性的。但唯独我们这个领域,因为我们公司的技术方案、产品等,在全球范围内做的都比较早,大众对我们的认可度一直比较高。
2023年初,宇树开始做人形机器人。
我个人一直比较喜欢机器人,大概在2009年大一的时候,我就做一个小的双足机器人,制作那个机器人大概花了我200元。但是做好了以后,我发现当时的技术和效果都不太理想,所以后面很多年我都没有再做人形机器人。
2019年、2022年有人问我,“你们公司要不要做人形机器人”。面对这些问题,我都是直接给出了否定的答案,说“我们绝对不做人形机器人”。从当时AI技术和工程技术的发展程度来看,做(人形机器人)是比较吃力不讨好的,效果不太好,又比较贵。
那为什么宇树又在2023年大力做人形机器人呢?
原因比较简单,就是在2021~2022年,整个机器人和AI技术进步比较快。尤其海外几家大的巨头公司,他们对人形机器人这块更加专注和投入了。简单来说,就是需求建立起来了,大家更加关注人形机器人,更加喜欢人形机器人,并且整个AI的技术也差不多快要到一个临界点了。
我们判断这是非常好的一个时间节点。
大家可能想象不到,在宇树做人形机器人之前,2022年底就有人找我们下订单。我们还没有做,就有人愿意买我们的人形机器人,所以觉得值得做。原因也比较简单,没有大家想的那么复杂。
2023年8月,我们发布了第一款人形机器人。这款机器人当时大概花了半年多时间,效率非常快。2023年下半年,我们完成了小批量量产。我记得大概在2023年10月,我们就把机器人的货发到美国,效率还是非常高的。
为什么我们效率会比较快呢?
我们之前做机器狗的累积,涉及到的关键电机、电池、动力系统、控制算法都是现成的。
可以看到,在国内我们公司做人形机器人不是最早的,甚至相对晚一些,但是目前来看我们的出货量、性能在全球范围内都有很强的竞争性。因为在做机器人这件事上,我们从硬件、软件、生产等方面都有深厚的累积。
当时发布的时候,这款H1机器人还刷新了几个指标。去年3月,H1就实现了原地的空翻,是世界首个可原地空翻全尺寸电驱人形机器人。去年5月我们发布了第二款人形机器人G1,它外观好看很多,而且它的关节自由度、关节舒展、传感器都是非常领先,同时相对价格也比较低。
2. 为什么要做人形机器人
目前,人形机器人发展还是比较早期,马上要在工厂或者家里用起来,在全球范围内都还是一件不太现实的事。但像这款机器人,我们目前有一部分市场已经开始做起来了,像一些科研教育、AI公司和一些娱乐活动的展示。
到现在为止,大家在网上还是争论为什么要做人形机器人,有的人赞同,有的人反对,但从全球头部公司创始人到政府都很关注这一块。这个趋势是不可阻挡的。
(1)结构最简单的通用机器人
早些年大家做的AI,都是单功能的AI,比如识别一个数字,识别一个文字,识别一个音频。但到现在为止,大家希望一个AI模型能把所有的功能都集合在一起,它可以自由的调度,能做任何事情,这是大家正在推进的通用AI。
机器人也一样,就是配合通用AI我们需要一个通用机器人。因为专用型的机器我们已经做了很多了,比如工厂里的、家庭洗衣做饭的,现在我们需要通用型的机器人配合通用AI。大家回头发现人形机器人反而是最简单的通用机器人。
可能很多人觉得人形机器人很复杂。实际上,人形机器人一点都不复杂。为什么呢?
人形机器人,你可以认为就是把几个关节拿几个连杆组合在一起,构成一个人形机器人,没有比人形机器人更经典的通用机器人了。不然的话,如果你要做成一只蜘蛛、做成其他的形态,难度其实要比做人形机器人还要大。甚至,如果未来通用AI很成熟的时候,没准哪一天,比如说一个小朋友在垃圾堆里捡几个电机、捡几个连杆装在一起,随便下个程序就能跑了,一个机器人成型。
(2)人更喜欢长得像人的机器人,更有情绪价值
因为它长得更像人,所以它还具备除了机器以外的附加价值。比如表演、服务、还有去到一些人能去的一些地方。如表演这样的功能,其实就包含了情绪价值。
(3)方便数据采集
现在的AI都是靠数据采集来驱动的,数据质量好一点,AI效果就好一点。目前数据采集只能靠人,这种时候肯定是长得像人的东西去采集更好一点。如果你要映射到一只蜘蛛、一只猪或者别的形态的机器人上,其实就很难映射,把这个数据给这种机器用也很难用。如果这个机器人长非常像人,那么最后采集数据和训练数据就会变得非常容易。
(4)可以处理需要人处理的各种事
目前自然环境中,人的越障能力都是非常好。比如说人可以通过一些很狭窄的或很崎岖的地方,别的一些形态就不一定。人作为灵长类的动物,它的通过能力、运动能力都算是卓越的。所以这也是为什么做成人形机器人相对比较好。举个例子,如果你现在把一个机器人做成车或者做成别的样子,你让一辆车翻过一个墙,怎么翻呢,对吧。
人能做的事情,人形机器人理论上都能做。以上四点是我个人想到相对比较直接的原因。
3.国内外人形机器人的产业现状
过去一两年,国家对机器人行业非常重视和支持。今年年初开始,尤其是今年2月,国内人形机器人包括整个机器人行业,都是热火朝天。简单来说,不单单是我们公司,就是所有我知道的(公司),过去哪怕可能都已经亏损很严重、快要撑不下去的机器人公司,今年订单业务都非常不错,相关行业的表现也很不错。
很多传统行业的老板或传统行业的人都开始想,我能不能在工厂里或商店里使用机器人?需求和消费情绪都开始被点燃了。当然可能里面也有一些盲目的成分。需求端被点燃肯定是一个好事,但大家也要保持一些克制,因为目前大家想要的需求,可能有些是机器人还办不到的,可能还有点偏差。过去几年,海外也是一直非常热,包括特斯拉、英伟达和其他头部科技公司对人形机器人都很关注。比如OpenAI,去年开始他就是开始想做机器人AI,今年年初,他们自己在招做机器人硬件的人。
但是确实目前整个机器人AI还是没有到达突破的临界点。目前每个月机器人AI都在进步,但在还没有达到真正大规模在工业还是家庭应用的临界点。现在类似什么情况呢?有点像ChatGPT出来前一两年,大家已经发现了这种技术方向,正在做的过程中,但还没有做出来。对于普通消费者来说,可能如果你真的要家用,不是当下一两年就能用的。目前机器人AI行业发展如何呢?比如说你想在工厂、在农业场景,或者如矿业这样这样比较辛苦或危险的场景使用机器人,现在最大的问题就是机器人AI还没有达到突破的临界点,反而硬件是个相对小的问题。
当然,硬件目前做得肯定还不够完善,但它不是一个限制性因素。某种程度上,硬件方面的本体已经够用了或者能用了,但未来几年需要做得更好。但这些不是本质上的问题,本质的问题还是机器人AI模型做得不太够,而且机器人AI模型和目前的大语言模型还不是同一种东西。我们可以简单理解为,机器人的AI模型更多偏向干活。
4. AI模型的基本逻辑规则
下面我简单介绍一下AI,方便大家了解。另外,如果家里有小朋友,我非常鼓励小学或者初中的学生都可以学一下AI相关的内容。首先提出一个点,就是逻辑推理的本质。这也是我高中时思考的一个点。大家在讨论逻辑的时候,比如说这个人逻辑思维比较好,到底什么是逻辑?总结起来也是比较简单的,其实就是通过一些概念和规则连接在一起。比如有A、B、C、D这几个概念和相应的很多规则,那A跟B有什么关系啊?B跟C有什么关系?相互可以推导。
所以很多情况下,比如要学一个新的知识点,其实也比较简单。比如说我要学新的概念C这个知识点,我只要用我自己比较熟悉的概念B和D的知识点把这个规则给推导出来就行了。这样你对整个新知识点的记忆和理解是比较深的,而且某种程度上你学东西可以越来越快。
再举个例子,如果你学了某个知识点,但过了五年到十年后忘记了,你还可以把概念B和概念C重新推导出来。我在介绍AI前,为什么要说这个?原因比较简单,目前的整个AI体系跟这张图很接近。大语言模型目前都是建立Transformer架构中的多头注意力机制的基础上,和这张图的非常接近。
来源:直播截图
另外一点,目前的AI都采用的深度学习神经网络。就是有一层层的神经网络,然后里面有一个个神经元,就是一神经元、二神经元、三神经元,这是作为一层。再有第二层又是一个神经元,一个神经元,然后有第三层。里面每一层之间有一根线连接在一起,这个线其实也比较简单,就是全连接。这个模型目前也是全世界用的最多的、最基础的模型,叫全连接层。什么叫全连接层?就是每一根线出来把所有的线都连一遍,就是一把一、二、三全连一遍,二把一、二、三全连一遍,这是目前最常用的模型。
深度学习神经网络核心原理(1),来源:直播截图
简单理解,就是一个圆圈里面就是一个数学公式。最简单的一个神经元的构造就是,输入和输出。比如,输入a、b、c,输出有y,然后每次计算时,就是a×Wa、b×Wb、c×Wc,乘一下,然后再加一个激活函数就输出了。
深度学习神经网络核心原理(2),来源:直播截图
打个比方,大家在玩AI的时候,输入一段文字,比如今天星期几?输入A、B、C,然后他算一下就把星期几给输出了。然后里面就是每一个数学公式。从某种程度上,你可以换成任何函数,可以把这个函数换成复杂一点。所以你如果要发表一篇比较简单的AI论文,要怎么做呢?把这个函数换一下,然后做一些实验,测试哪个函数效果比较好,接着你就可以发表论文了。目前最常用的神经网络就是这种,没有大家想的那么难,只不过实际应用的时候还有点麻烦。
深度学习神经网络核心原理(3),来源:直播截图
这里有两个概念,前向传播和反向传播。刚才提到的,从输入A、B、C算一遍到输出,就是一个前向传播的过程。简单来说,就是做了个数学函数,就是y=f(x)。
前向传播,就是训练好后,我在调用它,让它干活的时候再这么做。那我训练的时候怎么训练呢?这里就是反向传播。反向传播其实就是求导数,就是y'=f'(x),这个就是自动微分的过程,就是做了个梯度下降。
怎么理解?比如我前面有座山,我要去爬山,那有什么比较好的路线可以上山,把它找来。比较简单的理解,就是把这个山的梯度(斜率)给求出来。因为我要看到这个山的哪个地方比较陡、哪个地方比较缓,比较陡和比较缓的地方先找出来以后,就可以发现这条路可以从什么地方上去和下来。
反向传播的求导就做了这件事情,就是我们有好多山,通过反向传播求导以后,我就可以把这些路径给查出来,就是怎么从y到x的路径搜索出来。
大家可能觉得自动微分比较复杂,实际上你不需要做,因为有工具能帮你做好。这也是我刚才提到的,鼓励小学生都去玩一下AI。很多情况下,你不需要装软件,打开一个网页就可以直接编程,很多的工具都比较现成。
5. 小学生也能建AI模型
目前比较常用的深度学习神经网络核心工具PyTorch。这个工具是目前全世界用的最多的AI工具,也是一个开源工具。PyTorch这个工具的功能有哪些?
第一,批量数据的处理和加载。目前的AI都需要用海量采集来的数据训练,这个时候数据的管理和整理都是非常麻烦的一件事情,而这个工具具有数据的管理和整理功能。
第二,深度神经网络模型的构建。上面我们也了解了一些神经网络最基本的原理,那我们要如何搭建经网络?其实就和我们搭积木一样,而这个搭载过程中这个工具已经构造好了。
通俗易懂一点,你要构建一个神经网络,这和建造一个房子很像。目前我们造房子时,就有很多砖头、水泥、钢筋,这些已经有现成的了,你只要把它搭起来就行了。你拿它里面的一些模块,把它拼在一起,你就可以自己构造一个神经网络了。
第三,自动训练。神经网络构造好了后,剩下的比如自动微分、自动训练,你只要“吊”一两行程序,整个过程全自动帮你做好了。构建神经网络的时候你会发现,这就像搭积木,搭着搭着,可能就倒了。所以在做一些实验时,如果发现这个“积木”搭出来效果不错,那你就可以保留下来。
来源:直播截图
大家如果有兴趣,或者家里的小朋友,我这里推荐几个工具。这里提供几个国内外的平台,你只要打开网站注册好就能用了,而且它的GPU少量使用是免费的。你只要打开网站,输入几行代码就可以做AI训练了,包括有些数据工具都是现成的,这也是我自己用的比较多的工具。
目前整个AI的入门门槛是比较低的,就是基本0门槛,不需要花钱,小学生也可以玩。如果从小开始玩,玩个十年,那肯定是可以玩得很好了,而且也不需要有心理负担。打个比方,如果现在市面上的一些AI模型是“摩天大楼”的话,那我可以先造个小房子出来,这是完全没问题的。
那我现在如果真的要造一个“摩天大楼”出来,要怎么做呢?我肯定要有图纸,对吧?目前大家已验证用得比较多的“图纸”,目前全球最前沿AI模型架构,大家比较公认的模型的搭建方式,主要有以下三种。
第一,扩散模型。这种目前主要用来干嘛呢?主要是用来画画的,生成一张比较漂亮的图片,生成一个视频,用得最多的是扩散模型。
扩散模型这个名字也比较简单、直观。什么叫扩散?如果我有一杯清水,我在这个水杯里点了一滴墨水进去,这个墨水就会扩散。两个是同一个意思,就是我把一个规则的物体扩散成一个有很多噪声或者很多噪声的东西,然后重新收敛到一个比较规则的东西里去,这就是一个扩散的过程。再打个比方,比如一张照片本身是很清晰的,然后把它变得很模糊,接着把这个过程再映像一下,就变成AI的一个生成过程。
但目前来看,扩散模型我个人感觉还是有一定的局限性,所以目前主要还是画画用的比较多。
第二,GPT等为代表的LLM大语言模型。这个模型更为主流一些,LLM大语言模型目前基本以Transformer架构构建的,就是多头注意力机制。我后面会详细介绍下。
第三,强化学习,PPO、GRPO等。目前,强化学习也是最主流的方向之一,像我们机器人用的都是强化学习。比如DeepSeek,目前大语言模型也在做强化学习。
为什么大语言模型需要强化学习?原因也比较简单,因为传统的语言模型的架构就是,有多好的训练数据集就有多好的结果。如果我的数据集不好,那结果也比较糟糕;我的训练数据集的质量很好,那我的训练效果也很好。
但是,这是有极限的,输出的结果不可能比你训练的数据质量还好。那我怎么才能进一步提升AI模型的输出能力呢?就是必须得用强化学习。今年年初爆火的DeepSeek,最大的点就是很好得把强化学习用出来了。
他们自己开发了一个强化学习算法,可以把真正的,比如说一些数学推理做得更好一点。
个人感觉,未来的几年强化学习会成为整个AI的最主流方向。
6. GPT LLM大语言模型、强化学习与VLA模型
(1)GPT LLM大语言模型
目前,语言模型的架构相对比较直观和精简。在做的各位,包括我本身也不是搞语言模型,有些太深的点我们也不用太多了解,大概了解一些基础的点就行了。
来源:直播截图
目前的语言模型,简单来说就是用一个编码层和解码层(构成的)。编码层,比如我打开加一个word文档,里面每一个汉字或一个汉字拼音都是用大概两个字节来编码的,两个字节我就可以编码一个汉字。
但是做AI的时候,肯定是行不通的。那目前大家做AI的时候怎么做呢?先要把一个编码、一个汉字或一个字母变成一个向量,就是我要把它重新编码一下。比如说“今天晚上有点热”这几个汉字,每个汉字编码成一个向量。后面我再做一下多头注意力机制。
多头注意力机制是干嘛的?就是算一下向量的相关性。
某种意义上,注意力机制就是求一下相关性。相关性求好了以后再把它输出,然后再重新解码一下,就变成输出了整个过程也相对比较直观。我每一个概念或规则其实有一个向量,每个概念再求一下每个向量的相关性,就可以推导出每个向量之间的逻辑推理。
但是真正要做一个比较复杂的模型出来,肯定会涉及到很多公式上的问题。因为要造一个小的房子出来和建一个摩天大楼,本身还有很多技术上和工程上的问题要解决,工作量也是非常大的。
(2)强化学习(用策略模型和奖励函数代替模型反向传播误差)
强化学习并不是一个单纯的算法,某种程度上,强化学习是一个思维的、概念的问题。
说得简单一点,强化学习就是试错,比如我往前走一步可能摔倒了,我遇到了什么状况,然后我把每次试错的最好结果给保留下来,把不好的结果给丢了就行。比如在仿真环境里试错时,试一百万次、一亿次,我总是有一些好的结果的,对吧?那我就把这些好的结构都给保留下来。
(3)当下潜力最大的具身智能模型VLA模型?
目前整个的具身智能模型比较主流的模型:VLA模型。某种程度上,VLA模型就是在大语言模型的基础上加了一些东西。比如说Llama的模型,传统的语言模型都是用文字,输入是文字,输出也是文字,它的整个架构通用性很不错。
来源:直播截图
那它既然可以输入文字,那我就可以把文字给编码,把一个汉字编码成一个向量,那我为什么不能把图片和图像也编码一下呢?
这个思路也很简单,就是我在输入端加一个图片或一些视频编码器,我加在头端,然后和文字的向量放在一起,做一下交叉注意力就可以了。
VLA,V就是视觉模型,L就是语言模型,A就是执行器模型。什么是执行器的模型?一般的语言模型输出的是文字,在输出的文字前,再加一个神经网络,比如最简单的是说,我把全链接层加上去,加上去以后就可以输出一些机器的控制指令,比如关节的运动指令、执行指令。VLA的架构也相对比较简单直观。
7. 未来,真正的AGI需要实物机器人
现在智能机器人技术最重要的是什么?
第一就是,统一,端到端智能机器人大模型。就是需要一个更好的机器人模型去做,可能就是刚才提到的VLA模型就可以了,但是VLA模型个人感觉还是有很多的局限性。
第二,更低成本、更高寿命的硬件,及超大批量的制造。简单来说,就是要生产很多人形机器人,或者很多别的各种各样的机器人出来,就要要成本低,且性能也要很好。
第三,低成本、大规模算力。如果机器人的数量达到一定规模,比如当几百万或者上亿都需要配置算力时,那对算力低成本要求是非常高的。
现在很多情况下,大家在强调AI的时候,脱离了物理机器人去强调AI。我在这里想提出的,也是我去年一直提出的一个点,就是物理机器人对AI也是非常重要的。这是我个人的判断,可能是错误的,但这是我非常相信的一个点。对于真正的AGI(通用人工智能)、真正的通用机器人来说,物理机器人非常非常重要。为什么“身体”非常重要?目前很多的AI模型,它没有身体,它和真实世界是脱离交互的,它不能很好地去感知这个世界。它不能感知这个空间,感知桌子的碰撞等感受。
举个例子,为什么梦里跑不快?比如我小时候睡觉做噩梦的时候,有怪物追我,我在前面跑,但是我一直感觉很吃力地在跑,但跑不快。我在大学的时候想过,原因比较简单,就是人在睡觉的时候,你的大脑和身体断开了连接。清醒状况下,我们跑步时,每次跑到地面都是有反馈,所以我知道我的脚踩到地面上了。但做梦时,因为身体和大脑是断开连接的,我不知道自己踩到地面上去了,会觉得我的脚是踩到空气里面,所以我跑不快。
为什么要说这个事情?目前的语言模型是有幻觉的,它说出的话有时候错了自己也不知道,或者编一些乱七八糟的内容出来。这个情况很像做梦,说梦话。目前很多情况下,语言模型就有点像说梦话,像在做梦,迷失在虚拟环境里面,和真实世界是脱离交互的。
AGI需要参与到和整个世界的物理交互,需要参与到人类的大众生活中,来体验和理解人类的情绪和性格等等。目前AI的发展速度非常快,但是发展速度还是阶梯性的。最后希望大家相信、相信、尽可能相信AI。
本文为盒饭财经原创,未经授权严禁转载!戳这里--【盒饭财经】,了解更多商业故事