人工智能技术在应用层面上的产业化是一个系统工程,而这本就是中国强项

【本文来自《我发现,国内媒体上的学者对人工智能的理解还是停留在“计算机处理信息”这个局部》评论区,标题为小编添加】

你的这些观点我多数认同,但是行文上由于一些概念的模糊而有些混乱,容易让人误解,并且有些说法是有点问题的。

人工智能技术目前在学术界是指人工智能算法本身和相关的如数据预处理、训练、调参等技术,在产业界是指应用了人工智能算法的解决方案,但核心还是算法。你说的这些前端后端都是人工智能技术在应用层面的配套技术,本身它们可能不具备人工智能性质,比如刹车系统,他们自己不具备学习能力,你放到其他没有人工智能属性的应用场景去用也一样可以工作,所以这些辅助技术所应用的控制论博弈论什么的也就不能称为人工智能技术,而仅仅只是个工程实现上的问题。比如传感器是人工智能技术在应用上的瓶颈,不是人工智能技术本身的瓶颈,所以目前自动驾驶技术的落地和升级更多是工程上的问题,也就是配套技术跟不跟得上算法的问题。

因此你说的人工智能技术是一个系统工程也不完全对,更准确的说法是人工智能技术在应用层面上的产业化是一个系统工程,而系统工程本来就是中国的强项,所以在很多相关产品方面都可以做到全球领先。但是作为产品大脑的人工智能算法,目前绝大部分都是由美国科技体系贡献出来的。这个必须要承认,因为人工智能的研究初始于美国,从机械的逻辑归纳,到专家系统,再到当前处于主流地位的、以连接主义为基础的人工神经网络和深度网络,美国一直都是站在世界前沿,有着相当大的先发优势。

不过目前基于神经网络的人工智能算法已经有走到头的迹象,开始越来越依赖扩大模型规模来提升性能,而模型的规模越大,同时其他领域的工程能力,比如传感器和计算卡的性能赶不上模型的进化速度的话,这两者之间的差距就会越大,必然导致模型的使用维护成本急速膨胀。除非有工程上的重大突破,比如量子计算实用化甚至芯片化,按这条路走下去,一般的智能应用将会逐步停滞,而超级模型必然只能集中到少数几个实体手中,就有可能出现少数人通过垄断智能技术来控制大多数底层民众的黑客帝国式的场面。所以中国一方面应该开发自己的超级模型,百度文心一言不管怎么说是开了一个好头,另一方面也应该尝试跳出神经网络的局限开发新的人工智能架构,开发性能高同时耗费资源低的模型,拉平工程和模型之间的差距,这样人工智能技术才能更好地深入每个人的生活中。

全部专栏