人工智能哲学十五讲
上QQ阅读APP看书,第一时间看更新

三 为何波洛克的修正方案依然问题重重?

有读者可能会问,为何笔者要在此特别提到已故的美国学者波洛克(John Pollack,1940-2009)的工作呢?这是因为,在笔者所知的范围内,波洛克是唯一一个既在专业的哲学领域(特别是知识论领域)有丰富建树,又能够在主流人工智能杂志上发表技术类论文的人工智能哲学专家。具体而言,他在人工智能领域内开发的“奥斯卡系统”(The OSCAR Project),其实就是他自己在哲学逻辑层面上所发明的“集合否决因子”(collective defeat)推理式的工程学化后的产物。[21]但在笔者看来,他的研究成果恰恰表明:一种过度看待哲学逻辑的重要性、并漠视人类认知架构的“节俭性”本质的人工智能建模思路,即使走上了“非单调推理研究”的修正之路,也不能充分说明符合人类直观的推理结果到底是如何产生的。

波洛克的人工推理系统所试图解决的问题,乃是落实关于智能体的理性(rationality)的最基本要求:如何避免同时相信命题P与其否命题“¬P”。他的具体案例则是所谓的“彩票悖论”,其内容是:假设有一个彩票游戏,有一百万人参加,而赢家只有一个。因此,玩家能够成为赢家的概率是非常低的。假设每张彩票都被编号了,那么玩家相信其中任何一张被抽中的理由都会非常薄弱。因此,我们就得到了如下判断:

(1)并不存在着这么一张能够被抽中的彩票。

而这个判断,又是基于前行的一系列判断:

(1-1)1号彩票不会被抽中。

(1-2)2号彩票不会被抽中。

……

(1-n)n号彩票不会被抽中(n是一个小于等于一百万的大数)。

但我们同时又有这么一种直觉:总有人买彩票会赢的,否则,为何还有那么多人去买彩票呢?于是,我们就又得到了如下判断:

(2)在众多的彩票中,存在着至少一张能够被抽中的彩票。

很明显,从前提的集合{(1-1)、(1-2)……(1-n)}到结论(1)的推理是一个单调性推理,因为随着前提信息量的增加,作为结论的(1)的确定性也得到了增加,而不是被减弱。不过,(2)的出现却是一个“另类”,因为既然(1)与(2)是互相矛盾的,那么,(2)就无法得到来自{(1-1)、(1-2)……(1-n)}的前提信息的支持。这样,面对(2)与(1)或者{(1-1)、(1-2)……(1-n)}之间的不兼容,一个试图给出进一步推理结果的智能体,显然就面临着一项典型的“非单调推理”的任务。换言之,(2)的出现,恰恰使得原来的推理结果(1)很有可能被颠覆,而不是被保留。那么,一个需要维持自身信念系统之最大兼容性的智能体,又该按照怎样的推理模板来进行这种非单调推理呢?波洛克的解决方案是推出一个叫“集合否决性”的推理程式。这个推理程式的意思是,假设我们有很好的理由去认为r是真的(如承认存在着至少一张能够被抽中的彩票),而且又有貌似不错的理由(prima facie reason)去认为信念集合{p1,p2,……,pn}中的任何一个单独看都是真的(比如相信一百万张彩票中的任何一张都不会被抽中),而且,如果上述信念集合与理由r产生了矛盾,那么,我们就很难真的相信信念集合{p1,p2,……,pn}中的任何一个信念单独看都是真的了。用形式化语言来表述,即:

从表面上看,波洛克的上述诊断貌似是符合直觉的,因为很多人似乎都愿意接受这样一种说法:判断命题(1)为真乃是一种不甚精确的说法,而更精确的说法应当是:一百万张彩票中的任何一张都有非常低的获奖概率,只是在日常生活中我们往往会忽略这么低的概率。因此,说其中的任何一张都不能赢,严格而言是错的。但这里的问题是:上面的推理模式只有在预设了(2)是真的情况下,才是有用武之地的。但对于一个需要在缺乏人工干预的情况下独立运作的人工智能体来说,它又是如何知道(2)是真的呢?

很显然,在这个关键问题上,波洛克的模型不能提供任何有力的解释,因为它只能简单地重复说:如果每张彩票都不中的话,那么谁还会去买彩票呢?这不就意味着有人中了彩票了吗?然而,这个论证似乎已经预设了系统要么能够从外部环境(或内部记忆库)中获取“有人中了彩票”这一知识进行反向推理,要么就预设了系统的设计者已经将“有人中了彩票”这一知识作为先验知识纳入了系统的公理集。但实现这两种可能性都会带来进一步的问题。具体而言,若要实现第一种可能性,波洛克就得设计一个子系统,以便从外部自主获取证言或从内部调取记忆,而这样的设计显然会带来相关的心理建模任务。很明显,基于哲学逻辑思维的“奥斯卡”系统并不具备强大的心理建模力。而若要实现第二种可能性,则会逼迫建模者本人费心挑选哪些知识是不可动摇的“基本信念”,并将其输入系统。不过,这样的工作不但烦琐,而且,由于此类真理的“特设性”(ad hocness),某种特定的确定“基本信念”的方法在某类语境中的有效性,恐怕也是很难被推广到别的语境中的。譬如,下面的“猴子案例”虽然与前面提到的“博彩悖论”在逻辑结构上类似,但其中所涉及的命题(2∗)却并没有像(2)否决(1)那样,构成对于(1∗)的否决:

猴子案例:假设有一只猴子,在打字机上随便打字一百万次,那么它有没有可能在这一百万次打字中,随机打出一部《李尔王》呢?[22]

从直观上看,我们不难得到如下判断:

(1∗)不存在着一次具体的猴子打字的活动,能够随机产生一部《李尔王》的文稿。

而这个判断,又是基于前行的一系列判断:

(1∗-1)猴子的第一次打字不会打出《李尔王》。

(1∗-2)猴子的第二次打字不会打出《李尔王》。

……

(1∗-n)猴子的第n次打字不会打出《李尔王》(n是一个小于等于一百万的大数)。

同时,我们还有直觉,去支持下面判断的真:

(2∗)在一百万次猴子打字的活动中,没有任何一次能够随机产生一部《李尔王》的文稿。

很显然,猴子案例涉及的命题(2∗)与彩票悖论涉及的命题(2)所预报的方向是彼此相反的:(2∗)是否定性陈述,而(2)则是肯定性陈述。而在波洛克理论的框架中,二者之间的这种区别,似乎只能通过神秘的“直觉”来解释,而无法通过对于故事结构的逻辑线索来解释。

但一种更加严肃地对待心理建模、而不是拘泥于哲学逻辑的解题思路,却能够轻松地告诉我们:为何彼此呈报方向相反的(2∗)与(2)都是真的。这一解题思路的心理学关键词乃是“易取性捷思法”(availa-bility heuristic)[23],其核心含义是:认知主体在其长期记忆地址中调取相关信息时,会根据“提问的信息容易激发怎样的记忆表征”这一标准来为相关判断寻找证据。如果的确有相关的正面证据通过这样的激发过程而被主体较为轻易地获取,相关判断就会被认为是真的,否则就是假的。套用到“彩票悖论”上,由这一心理学规律所衍生出的解释方案就是:有彩民购买彩票并获奖的信息,非常容易通过媒体的宣扬而被人广为所知,所以,当我们的认知系统需要判断“在众多的彩票中,存在着至少一张能够被抽中的彩票”这一命题的真假时,这样的信息就非常容易被记忆系统所调取,并成为证明该命题为真的证据。而与之相对比,在猴子案例中,面对“在一百万次猴子打字的活动中,没有任何一次能够随机产生一部《李尔王》的文稿”这个命题时,我们的心智系统之所以能够判断它是真的,乃是因为它的否命题——“在一百万次猴子打字的活动中,至少有一次能够随机产生一部《李尔王》的文稿”——是假的,而它之所以是假的,是因为它没有办法帮助认知主体们唤起任何一个关于猴子打出文学巨著的心理记忆。总而言之,在判断哪些命题是“确实正确”而不仅仅是“看上去正确”这个问题上,起作用的那些关键因素只能通过心理学来解释,而不能通过逻辑推演来解释。

有人会问:我们干脆就把心理学的因素介入传统的基于哲学逻辑的AI系统好了,而这种介入,难道不会使由此形成的AI系统更具可运作性吗?

但事情可能没有这么简单。笔者下面就来论证,以“易取性捷思法”为代表的心理学原则,至少在三个方面是与弗雷格以来的哲学逻辑的运思方式有着内在冲突的:

第一,此类心理学法则的领域指向性,与弗雷格式逻辑的“真值—内涵”分离原则是有冲突的。我们在刚才的分析中已经看到,虽然“彩票悖论”与“猴子案例”的初始故事结构是比较类似的,对于二者的结论的直觉却是彼此不同的,而这种不同显然不能通过对于故事结构的追溯而得到解释,而只能通过对于“赢了彩票的彩民”与“打出《李尔王》的猴子”所各自勾连的记忆之间的不同来解释。这一差异显然不是形式的或先验的,而是质料的或者说是经验的。很显然,基于弗雷格式逻辑的现代哲学逻辑,由于过于看重命题的外延(真值)而非其内涵,其实是很难消化心理学家对于词项内容的经验意蕴的重视的。

第二,“易取性捷思法”的运作,往往是反逻辑的。譬如,站在严格的逻辑立场上看,如果你要证明猴子一百万次随机打字都不会打出《李尔王》,那么你就得至少检查一百万次的相关案例,以证明猴子的确从来都没有打出《李尔王》。但几乎没有人会有这样的时间与心理资源去做这样的内省或调查。毋宁说,大多数心理被试只是会翻检自己记忆库中的几个案例。当他们发现找不到“猴子打出文学名著”的具体例证,他们就会立即匆匆做出“猴子打字一百万次也打不出《李尔王》”的结论。很明显,这种对于逻辑要求的公然违背,显然已经使得任何一个基于逻辑的形式系统,面临着被“新来的鲶鱼”(心理学要素)全面颠覆的危险。

第三,以“易取性捷思法”为代表的心理学原则在运作细节与运作结果方面的模糊性,也与弗雷格式逻辑的“极化思维”产生了明显的冲突。再以“彩票案例”为例。假设一个心理学被试从来没有见过彩票,但是好在他见过抽签,并见过在抽签中有人抽了好签(因此,相关信息对于他来说就是“易取的”),而且通过教育,他也知道买彩票无非就是一种更复杂的抽签。在这种情况下,通过在“有人抽中签”与“有人买彩票会赢”之间建立起类比关系,他也能判断出命题(2)的真。但很明显的是,这样基于类比的思维方式,由于类比关系自身的强弱度的不确定性,必然会带来某种模棱两可性,而这一点恐怕是很难被“边界分明”的弗雷格式极化思维方式所吸纳的。

从本小节的讨论来看,“非单调推理”本身所依赖的心理学因素是如此之丰富,以至于一种仅仅满足于对此类推理的表面结构进行描述的形式化处理方案(如波洛克的“集合否决性”程式)最多只能抓住相关推理的最肤浅的层面,而无法触及“冰山的水下部分”。而如果我们要对“冰山的水下部分”进行全面追索的话,相关的认知建模活动所需要的技术资源,可能又是弗雷格式的哲学逻辑所无法取代的。分析哲学与人工智能的结合,显然还需要新的技术通道。