黑格尔“逻辑学”对人工智能的启示(二)
让人讨厌的“框架问题”
众所周知,美国哲学家塞尔( John Searle) 在经典论文《心智、语言和机器》中区分了“强 AI”与“弱
AI”这两个概念:前者指的是一个真正具有人类心智
能力的计算机器,而后者指涉的仅仅是能够模拟人类
心智能力的计算机器。
塞尔
塞尔进一步认为“强 AI”是不
可能实现的,因为任何一台计算机器都只能够在“句法层次次”(syntactic level)上规定机器的运作,而无法
由此达到智能活动所必然会牵涉到的“语义层次”
( semantic level))( 在塞尔的语境中,形容词“句法的”
几乎同义于“机械的”,而不仅仅取其在语言学领域内
的意义) 。
笔者认为塞尔的观点具有部分的真理,也具有部
分的谬误。具体而言,诚如塞尔所言,“语义落地”问
题的确是人工智能研究的一个核心问题,而目下 AI
学界对于该问题的主流处理方案的确不算高明( 详后) 。
但笔者却无法赞同塞尔所给出的如下终极审
判———“未来的 AI 将永远无法具有一个能够理解语
义内容的人类心智系统”,因为塞尔赖以支持该终极
审判意见的论据( 即所谓的“汉字屋思想实验”) 本身
是站不住脚的。
而且,塞尔对于 AI 的这种悲观态度,在相当程度上也会使得人类智能在演化历程中的
出现成为了一件难解之事。换言之,如果“随附式物
理主义”是对的话,那么我们就难以按照塞尔的理路
来解释,为何人类神经元的机械运作能够在高层面催
生语义智能呢?
那么,我们又该如何在回避塞尔的“汉字屋论证”
的情况下,更为恰当地表达出对于所谓“语义落地问
题”的理论忧虑呢?
一种更为合适的表达路径是“框架问题”( frame
problem) 。对于该问题的一种非技术化的表达便
是: 一个 AI 系统在给出某个操作的时候,它又该如何自动确定其中的某些操作( 如住在上海的张三按下传
真机的按钮这一操作) 不会导致某些后果( 如住在墨尔本的琼斯的小狗的心律之波动)的发生呢?
这个问题在实践上之所以具有重要意义,乃是因为如下张力
的存在: 一方面,任何一个智能体都应当能够对其做出的任何行为的后果进行预估,由此进行“趋利避害”
( 否则其表现就不足以体现真正的智能); 另一方面,
它又必须能够将那些明显不相关于当下决策或行为的“非后果”( non-effects) 明确排斥出当下的考虑行为,以加强决策的效率(否则其行为依然不足以表现出足够的智能)。而依据此方式被理解的“框架问题”,则可以被抽象为如下形式: 编程者该如何设计智能体,才能够使其在进行趋利避害的考量中,尽量避免过多地考虑不相关的事项,以此提高其整体行为效率呢? 而对于“框架问题”的上述抽象形式,显然已经涉及了“语义相关性”这个奠基于“语义内容”之上的复合概念。
这也就是说,框架问题恰恰是以它自己的方式,切中了塞尔所提出的那个原初的哲学问题:计算机在句法层面上的机械操作是如何规定出那种超越于机械运作的语义内容的呢?
很显然,如果塞尔对于整个“句法—语义”关系的消极判断是正确的,那么从原则上说,框架问题本身也应当是无解的,而这一点本身似乎就足以宣判强 AI 的死刑。
不过,正如笔者不相信“汉字屋思想实验”足以宣判强 AI 的死刑一样,笔者也不相信“框架问题”足以
宣判强 AI 的死刑———尽管从经验角度看,该问题对于目下主流 AI 研究的挑战的确是足够强大的。非常粗略地说,框架问题对于符号 AI 进路的挑战就在于:除非编程者事先以“框架公理”的方式,手动输入关于
“何事与何事不相关”的信息,否则系统本身是无法自
行判断“何事与何事不相关”的。
而即使手动输入“框架公理”的做法勉强可行,这一做法又会带来如下深层次困难:能够与“何事与何事不相关”的信息所对应的可能的框架公理数量乃是无穷多的(譬如,既然
你能想到喝豆浆与读黑格尔不那么相关,那么你就能
再想到吃羊腰子与读海德格尔也不那么相关,由此,
你也就能再联想到无数个“非相关项”) 。在这种情况下,要么编程者自己会因罗列这些无穷无尽的框架公理而苦不堪言,要么系统本身也会因为逐一检索这些框架公理而变得不堪重负。
甚至对于貌似比符号
AI 更为“先进”的人工神经元网络技术( 以及作为其
“进化版”的深度学习技术)来说,“框架问题”也是一
个难解的问题。
其背后的道理乃是: 即使一个深度学
习系统能够通过海量的语料学习建立起了一个所谓
的“向量空间模型”( Vector Space Model) ,并通过这
个模型来使两个语词之间的“语义距离”的度量成为
可能,如下问题也会阻挠这样的模型成为一种对于
“框架问题”的有效解决方案: 由于我们人类具有从简
单词项构造出无数个复合词项的能力( 比如从“糕”
出发构造出“一块热腾腾的粢饭糕”的能力) ,一个针
对所有的词项( 包含复合词项)的“语义向量空间模型”在原则上便是无法被构建出来的。
而一种被勉强构建出来的语义空间模型,则也会因为忽略了复合词项的存在,而无法计算出两个新出现的复合词项之间的语义距离。
而出现这种情况的深层次原因则是: 深度学习机制在骨子里就是一个统计学系统,而所有的
统计学系统( 无论是贝叶斯网络还是神经网络) 其实都只能“由旧揣新”而无法“推陈出新”———因此,如果系统所面临的新的复合词项在学习语料库中未曾出现过的话,系统肯定就会变得手足无措。
反过来说,如果这样的系统要学会人类“推陈出新”的语言构造能力,它就必须理解语言中基本范畴的使用规
则———而这种能力却又恰恰是基于统计学的整个运作机制所无法涵盖的( 因为规则自身的权威性并不能被还原为相关表达式出现的统计学频度) 。
但以上说的这些,与黑格尔又有什么关系呢?
从表面上看来,“框架问题”的存在,似乎并不能
够证明在 AI 研究中引入黑格尔哲学思想资源的必要性,反而能证明黑格尔哲学的无力性。
相关理由如下: 正如前文所指出的,解决框架问题的要害,乃在于如何使得系统在处理当下问题时不涉及知识库中过多的事项,以便提高系统的运作效率。
因此,这种解决方案肯定包含着某种“做减法”的要求。然而,黑格尔哲学给人的印象却是“整体主义”,也就是那种从所谓的“感性确定性”中牵扯出整个“绝对知识”的宏大叙述风格。
要向这样的哲学寻找“框架问题”的解决方案,难道不是在缘木求鱼吗?但这种批评意见其实并不能真正站得住脚。严格地说,黑格尔本人说的“绝对知识”并不是像前面所说的“语义向量空间模型”那样的经验知识大全,而是
某种纯粹思维层面上的高阶知识。
这也就是说,黑格尔所真正看重的,乃是使得经验知识得以被组织起来的某种“元知识”。
不难想见,如果AI也能够获取这种元知识的话,那么这样的系统或许就能以更为灵活的方式组织经验知识,以此规避框架问题。
由此,黑格尔哲学与 AI 之间的思想交流管道,也能够被顺利疏通。
但到底是哪些黑格尔式的“元知识”内容才对AI有特别的借鉴意义呢? 要回答这一问题,我们需要以一种新的眼光来复习黑格尔的《逻辑学》体系。
而在下面的讨论中,笔者将具体采取这样的讨论策略: 首先,笔者将暂时搁置对于AI 问题的讨论,而着力将黑
格尔《逻辑学》的核心理论命意加以“祛魅化”; 然后,
笔者再将 AI 的视角重新切入现场,以便构成黑格尔与AI 之间的积极对话。
参考文献:
J.Searle,“M inds,Brains,and Programs,”Behavioral and Brain Sciences 3 ( 1980) : 417-424.
限于篇幅,笔者不在此详细讨论这个论证为何不对。请参看拙著《心智、语言和机器———维特根斯坦哲学与人工智能科学的对话》( 人民出版社 2013 年 10 月出版) 第三章。
对于这个问题,塞尔本人在其《心灵导论》( 徐英瑾译,上海人民出版社 2008 年版) 中提出了一种叫“生物学自然主义”的解释方案。根据这种解释方案,人类大脑的特定的生化反应能够引发智能,而人工编程的硅基体则无力达到这一点。但笔者认为这个观点的表述有“乞题”( begging the question) 的嫌疑,也就是说,如果没有来自“汉字屋论证”的外部支援,这个观点本身只是在表达一种态度而已。
对于框架问题的一个比较技术化的介绍,请参看《斯坦福哲学百科全书》的相关词条: M Shanahan,“T he Frame Problem,”The StanfordEncyclopedia of Philosophy ( Spring 2016 edition) ,Edward N. Zalta ( ed.) ,( 2016) .URL = <https: / /plato.stanford. edu /archives/spr2016 /entries/frame-problem />.