华为战略研究院院长周红有关AI的这次演讲,我摘一下要点

【本文来自《华为战略研究院院长周红:AI能力快速提升,但还面临三个重要挑战》评论区,标题为小编添加】

尝试摘抄华为战略研究院院长周红一次演讲要点

△在AI能力快速提升的情况下,我认为需要考虑AI的目标如何与人类一致、并且正确和高效地执行。除了通过规则和法律来加强AI的伦理和治理外,从理论和技术的角度看,要达到这些要求,目前还面临三个重要的挑战:AI的目标定义、正确性与适应性、以及效率。

AI面临的第一个挑战,是缺乏共识的目标定义。杜克大学的物理学家Adrian Bejan教授在《生命的物理学》书中,列出了对智能的二十多种目标定义,有的强调理解和认知能力、有的强调学习和思考能力、有的强调适应和行动能力等等。

如果没有定义清楚并达成共识,就很难确保AI发展的目标与人类一致,也很难合理地分类和科学地计算。人工智能在历史上有不同的流派,例如符号主义、贝叶斯主义、进化主义、行为主义,以及连接主义等,它们还没有很好地融合起来,我认为缺乏共识的目标定义是重要的原因之一。

其次,在当前的很多AI应用中,存在正确性和适应性的挑战。

依靠大数据统计规律进行的学习,会依赖于采样的覆盖面和数据的正确性,如果错误使用,就可能导致结果不稳定和偏见的风险,出现“黑天鹅”事件。

人工智能为什么会犯错,这很难解释。因为AI的能力分布在巨大的参数中,出了这些问题,我们既无法解释、也难以调试。

第三个挑战是AI的效率。

包括能效和数据效率。我们除了通过从大数据中得到统计规律,来认识和理解世界外,能不能从小数据中进行思考,发现逻辑性,形成概念,抽象出原则?

△面对这三个挑战,如何进一步寻求突破呢?我建议从实用的角度,来发展知识和智能。如何通过从外部环境和我们自身的事实和现象中,归纳抽象出概念和属性、及其关系和运行规律,来形成知识?按柏拉图的理念,知识应该是被验证过的、正确的和被人们相信的。能不能提升达成追求或者目标的能力,来发展智能?具体来说,可以通过感知与交互、计算或者试错,在复杂的环境和有限的资源下达成目标。我们要通过智能来认识环境、适应环境,甚至改造环境以及我们自身,其正确性、适用性与高效性就很重要。从已有大数据中提取概率分布来进行拟合和推演,是实现智能的一种手段,除此之外,我认为智能也要考虑因果推理、给出假设和进行试错,提出问题和创造性地解决问题等。

△近几年学术界有建议通过各种学习方法,实现从部分到整体,类似人类的感知系统;有建议未来的人工智能由基于直觉的模型和基于逻辑与归纳的模型组成;有建议以自监督的方式来学习世界模型,然后利用这些模型进行预测、推理和规划;有提出通过与环境的交互而获取经验,构建AI的目标和整个世界的状态,使得智能体可以学会与环境沟通、合作和竞争。

哈佛大学教授把人类的智能分类成八大类,包括语言文字、视觉与空间、自然理解、自我认知、人际关系、音乐、运动和数理逻辑。

△我建议在这些思考的基础上,发展感知与建模、知识自动生成、求解与行动三个核心部分,通过从多模态感知融合与建模,到“知识+数据”驱动的决策,实现更高正确性与适应性的自主智能系统。感知与建模是对外部环境以及自身的表征与抽象;知识的自动生成应该将吃穿住行、琴棋书画、数理化生等人类能表达与不能表达、能感知和不能感知的知识都考虑进来,将人已有的经验融入到策略模型或评价函数当中;求解与行动可以是在已有知识的基础上,结合内外部信息进行直接的演绎推理,或者通过与环境交互试错,来找到解决办法。

△在走向智能社会的过程中,可能有超过百倍、甚至千倍的信息需求增长,现有的很多理论和技术已经遇到瓶颈,难以支持未来的发展,因此我们积极推动科学假设与商业愿景牵引的创新,在通信上,大胆探索有别于香农定理的前提条件和应用场景;在计算上,进一步明确人工智能的目标定义、提升正确性、适应性和高效性。

△在通信和计算两大基石的驱动下,从狭义人工智能,到通用人工智能与超级人工智能的过程中,我们首先要通过理论和技术的不断突破,来实现万物智联,促进社会的进步;其次要勇于拓展思想的边界,增强对智能的认知和掌控能力;最终,用正确的目标和有力的手段,牵引人工智能的发展,助力我们超越极限,增强生命,创造物质,控制能量,跨越时空,实现人类文明的进化。

全部专栏