超脑认知论:心灵的新哲学
上QQ阅读APP看书,第一时间看更新

第二章 认知主义的内在困境

认知主义是哲学、心理学和人工智能领域的一个通用词汇,一般而言,它指的是这样一种研究进路,即将人类的认知等同于计算机的信息加工过程,有机体的感觉器官执行了输入系统的功能,而大脑神经系统则类似于计算机的中央处理器,人的运动器官则对应于输出系统。这种基于计算隐喻的认知主义后来遭到了来自三个层面的挑战:在计算机技术领域,量子计算、超计算、自然计算等新的计算范式试图超越取代传统的图灵可计算范式;[1]复杂性科学和生物学领域的观念被带入到认知科学中,心灵不再被视为一个简单的形式系统,而是一个动态、涌现和生成的复杂系统;在哲学领域,认知主义将认知过程描述为句法操作行为的观念受到了来自心灵哲学、现象学和数学哲学领域的诸多论证的挑战。[2]我们在此不准备处理计算科学和复杂性科学领域的挑战,而仅仅限于对来自哲学阵营的挑战做一个考察。为此,在本章中,我们将重返认知主义最经典的范式,即纽维尔和西蒙所提出的物理符号系统假说,并探讨它所面临理论困难。然后,我们将重点评述认知主义所面临的哥德尔论证、符号奠基问题和框架问题三个主要难题。

这里需要说明的是,虽然我们这一章中的探讨主要限于人工智能领域,但因为人工智能作为认知科学中的核心领域,它最为典型地体现了认知主义的核心假定,而且在工程学上实现了认知主义的认知模型,对人工智能的困难的检视,是我们把握认知主义的内在困境的一条最为有效的进路。

第一节 物理符号系统假说及其困难

认知主义的一个典型范式就是物理符号系统假说。它可以追溯到1958年,纽维尔、肖和西蒙提出了一个人类问题解决理论(theory of human problem solving)。他们首次明确地将人类的认知过程视为一个数字计算机式的信息加工过程,将人类的认知系统视为一个中枢控制系统,它的构成元素包括“大量的记忆(包含了符号化的信息,并且通过各种定序关系相互关联)、大量的基元信息过程(它操作记忆中的信息)、将这些过程与整个加工程序组合的一整套非常明确的规则”。[3]基于这种理论,他们认为计算机的程序语言可以用来表达人的心理过程,而计算机也可以模拟人类的心理行为。1976年,纽维尔和西蒙在他们的图灵奖获奖论文中,进一步将智能系统定义为一个物理符号系统。它之所以是物理的,有两个方面的含义,首先这种系统是遵循物理学定律的;其次,这种系统并不局限于人类符号系统。在他们看来,一个物理符号系统中的所谓物理符号,是由符号(symbol)以及由符号分量组合而成的表达式(expression)构成的。所谓符号,就是能与其他式样相区别的式样(pattern),比如某一个英文字母,它能与其他英文字母相区分,所以它是一个符号。所谓表达式,就是由一系列的符号的标记(tokens)按照某种物理方法联系起来的符号结构。物理符号系统的功能就是辨认和区分符号的异同。它依照一定的表达式运作,产生出新的表达式。这个过程也就是对符号的操作过程。对于整个物理符号系统而言,纽维尔认为它包括了内存、一组操作符、控制、输入和输出等组分。

它的输入是某特定存储单元中的对象,输出是另一个存储单元中的对象的修改或创建。系统的输出是输入的函数,它构成了系统的外部行为。符号系统的内部状态是由内存状态和控制状态构成的,而它的内部行为就是这个内部状态的变化。符号系统的内存由一套符号结构构成,它可以表示为 {E1, E2,..., Em},它的数量和内容随着时间而发生变化。符号系统有10个操作符,每一个操作符都是一个机器,可以将一个或更多的输入符号转换为某些输出符号。这10个操作符体现了物理符号系统的10个基本的功能,它们包括:

(1)赋值符号(assign a symbol):建立符号与所赋值实体之间的基本关系。

(2)复制表达式(copy expression):将表达式和符号添加到系统里,这是对输入表达式的复制。

(3)写入表达式(write an expression):创建有任何特定内容的表达式,但并不创建任何新的表达式,而是修改它的输入表达式。

(4)写入(write):在给定作用下创建一个符号,无论在此之前是否存在这个作用下的符号。

(5)读取(read):在特定作用下读取符号。

(6)执行序列(do sequence):使系统能按照规定的序列执行任意的行为。

(7)条件退出和条件继续(exit-if and continue-if):使系统能有条件地退出或继续执行一个序列。

(8)引用符号(quote a symbol):自动地解释每一个运行的表达式。

(9)外部行为(behave externally):符号系统可通知的外部行为的集合。某种类型的符号结构的存在可以引起系统产生一定的外部行为。

(10)环境输入(input from environment):将新建立的表达式存储到内存中,从而将外部环境的输入录入到系统中。[4]

西蒙则对此做过更简洁的概括:(1)输入符号(input);(2)输出符号(output);(3)存储符号(store);(4)复制符号(copy);(5)建立符号结构(build Symbol structure)(6)条件性迁移(conditional transfer)。[5]

这些操作体现了物理符号系统最一般的运行机制。在他们看来,任何一个物理符号系统,无论是计算机还是人,都具有这些功能,而任何表现出这些功能的系统,也都是物理符号系统。

在纽维尔看来,物理符号系统最基础的概念就是将符号特性赋予符号,从而让符号代表某些实体。这就是所谓的指谓(designation),在日常或哲学领域,与其类似的术语还有指称(reference)、指示(denotation),命名(naming),代表(standing for),关涉(aboutness)等等。但纽维尔并没有辨析这些概念的意义,他使用了一个极为操作主义的定义:

在一过程P中,一实体X 指谓一实体Y,如果当P 将X 作为输入的时候其行为依赖Y。

也就是说,X所引起的操作如果依赖Y,则说明X指谓Y。这意味在过程P中,当输入符号X的时候,就等于具有了Y。所以在这种情形下, X指谓Y。但在物理符号系统中,要将通过指谓X而产生行为,还需要解释。纽维尔的定义是:

接受一个指谓某过程的输入表达式,然后执行这个过程。[6]

正是通过指谓和解释,物理符号系统得以完成信息加工的整个过程。

在界定这些概念的基础上,他们提出了物理符号系统假说:“对于一般智能行为,物理符号系统具有必要和充分的手段。”[7]之所以是必要的,是因为任何一个表现出智能行为的物理系统都是一个物理符号系统;之所以是充分的,是因为通过组织足够规模的物理符号系统都会表现出一般智能行为。因此,根据物理符号系统假说,就可以导出三个推论:(1)既然人类具有智能,人类就必定是一个物理符号系统;(2)因为计算机是一个物理符号系统,所以它一定会具有智能;(3)既然人和计算机都是物理符号系统,就可以用计算机来模拟人类的活动。[8]第一个推论是符号主义的认知心理学的基础,而后两个推导构成人工智能的符号主义范式的前提条件。

但这一假说不仅在认知科学内部遭到了来自联结主义和超脑认知的挑战,而且它在哲学上也面临着诸多质疑。这些争论主要集中在四个方面:

(1)计算的符号操作是没有意义的,而智能需要某种与环境的联结来构建符号的意义,而不仅仅是形式化的符号操作。

(2)包括感觉在内的智能行为涉及非符号加工;也就是说,它不仅仅涉及数字信号,还涉及模拟信号。虽然任何物理过程都可以通过计算机的符号操作来模拟,但大量的模拟必然不堪重负。

(3)因此计算并非智能的恰当模型,需要抛弃认知的计算隐喻。

(4)大量的智能行为是无心的(mindless),比如昆虫甚至植物表现出智能行为,但他们不操作任何符号,而大量的人类智能也是如此。[9]

在这几条质疑中,主要的关注焦点就是表征和计算观念,超脑认知的诸多进路已经对这两个观念提出了较多的批评,我们将在第三章中处理这个议题。我们在此主要关注的是第二条质疑,它涉及了人工智能中的形式系统的意义获取问题:纯粹句法的符号操作无法获取意义,即便离散的句法符号[10]能模拟现实的连续的语义信息,这种机械操作从本质上仍然是不能思考的,因而不可能作为智能的恰当的模型。这种思路大致被三种不同进路的哲学家从不同的角度重复过:卢卡斯(John Lucas)[11]和彭罗斯(Roger Penrose)[12]基于哥德尔定理论证“人心胜于计算机”,德雷福斯(Hubert L.Dreyfus)从现象学视角出发对人工智能的框架问题(frame problem)的剖析[13],以及塞尔(John Searle)的中文屋思想实验。在这三种批判中,卢卡斯和彭罗斯基于哥德尔定理的批判深刻地揭示了形式主义符号体系的困难;而德雷福斯的现象学批判在一定程度上已经被吸纳到了人工智能尤其是机器人的技术设计之中,塞尔的批判则因为触及到了机器是否能思考、心灵是否是可计算的、句法是否满足语义等基础问题,在认知科学界和哲学界尤其影响深远。实际上,德雷福斯和塞尔的批判分别触及到了符号范式的人工智能中根深蒂固的两个中心难题:框架问题和符号奠基问题。我们将在以下分别讨论这三个问题。

第二节 认知主义难题Ⅰ:哥德尔定理

物理符号系统将认知过程刻画为完全形式化的物理符号操作,于是每个推理过程都被展现为一种有效的机械活动。这样,一切非机械的、非形式化的直觉因素便被排除出思维推理之外。然而,这样的形式系统能否捕捉到思维的全部特征,却是存在争议的。哥德尔的不完备性定理,因为揭示了形式系统的不完备性,后来的反计算主义者基于这个定理,发展了他们的反计算主义论证。

一 形式主义体系与哥德尔定理

哥德尔定理所针对的是希尔伯特的形式主义数学体系。形式主义体系最早可以追溯到欧几里得的几何公理化体系。它从几个直观上清楚明白的公理出发,可以推论出全部的公理体系。这些基于直觉的公理被认为越少越好,因为这样才可以保证数学公理的确定性。然而非欧几何的发展动摇了我们对公理体系中的直觉公理的信心,因为可以从与平行公设相反的假定出发构造出一个不矛盾的新的几何体系。于是,完全消除直觉就成为了数学的一种内在要求,这个目标就导向了形式系统的观念。[14]

在希尔伯特看来,所有的数学语言都必须被形式化;也就是说,全部的数学表述都可以变换为一系列的符号,而数学证明和计算在实质上都可以是一连串的符号操作。在形式体系中,我们对符号的操作仅仅是基于符号的字形,而不管它的语义内容。因此,我们可以机械地按照某种预先编制的规则就可以得到所要求的证明结果,不必去关心这些符号的含义。比如,当我们计算7 × 4=28的时候,我们并不需要关心这个等式及其数字和×号的意义,而只需要按照某种确定的规则就可以了。[15]这样一来,数学就变成了一种纯粹的形式操作,可以用一台机械装置来进行再现。这种思想和后来的图灵可计算理论和物理符号系统假说的思想是一致的,它构成了现代计算机科学的基础。

希尔伯特的形式主义致力于全部数学领域的形式化,然而一旦存在某个用形式方法不可证明的命题,他的计划就将陷入失败。而哥德尔的工作恰恰与此相关。

1931年,哥德尔发表了他的著名论文《论数学原理和有关系统I的形式不可判定命题》,提出了所谓的不完备性定理:任何包含了算术的一致的形式系统,都存在着不可判定的命题。所谓一致,是指无矛盾或相容的。所谓不可判定命题,是指该命题和它的否定命题,在该系统中都是不可证明的。我们在此不拟述及哥德尔对这个定理的详细证明,而只准备述及它在哲学上的含义。

哥德尔不完备性定理揭示形式化方法的局限性;也就是说,我们不能用一个形式系统对算术进行完全的刻画,我们不能将直觉从数学中完全排除出去,我们也不能将意义完全驱逐出数学的领地。哥德尔区分了“真的”和“可证的”两个概念.这个区分意味着,虽然在某种一致的数学形式系统之内,可证的就是真的,但真的并不必然就是可证的。哥德尔深刻地揭示了数学真理的直觉来源,因此也否定了形式主义将直觉完全排除出数学的迷梦。

二 卢卡斯和彭罗斯的论证

哥德尔的不完备性定理似乎承诺了这样一个推理:任何人工智能或计算机必定都存在不可逾越的界限。因为既然任何包含了初等数论的形式系统都存在一个不可判定的命题,基于这种形式系统的定理证明机器和程序也同样会遗漏这种真的数学命题。这样,人工智能或计算机器就永远不可能超过人类的心智。后来的卢卡斯和彭罗斯就从哥德尔定理出发推导出了这样的哲学结论。

在卢卡斯看来,哥德尔证明了形式系统是不完备的,一些在这个系统之内不可证明的公式,如果我们站在这个系统之外,就会凭直觉看出它是真的。他认为哥德尔定理也适用于控制论机器,因为它是形式系统的例示。这样就可以得出这样的结论:机械论是错误的,心灵与机器在本质上是不同的。

对于任何机器而言,都存在一个它不能证明为真的真公式,但人的心灵却可以做到这一点。这就证明,机器并不能模拟人类心灵的全部功能,人心在特定的领域要胜过机器。卢卡斯承认,机器确实可以再现出类似心灵的行为,并且在特定领域可以超过人类心灵。但是它并不能模拟人类的全部心灵行为。

因为不论我们造出的机器如何复杂,只要它是一个机器,就必然是一个形式系统,而这个形式系统就必然存在自己的哥德尔公式,在这个系统之内不能被证明为真。因此,卢卡斯认为,这种被设计出来的模拟心灵的机器是僵化的、机械的,实质上是死的,而心灵却是活的,它要远远胜于任何僵化的、死板的形式系统。因此,即使我们制造出了一台机器,几乎在各个方面都具有超越人类心灵的能力,但它仍然存在着一个阿基里斯之踵,心灵可以做到的,它却做不到。[16]

在卢卡斯之后,彭罗斯进一步发展了这个论证。彭罗斯虽然同样诉诸哥德尔定理来论证人心胜于机器,但他进一步用量子力学补充了意识的物理机制。彭罗斯认为传统的计算机并不能产生支撑意识的机制,而经典的物理学也无法解释意识的产生。为了解释意识现象,必须更新我们现在的物理学,发现某种非计算的物理过程。

在他看来,既然哥德尔定理已经表明了某些数学真理是非可计算的,而必须依赖人类心灵的直觉,那么作为掌握这种真理的人类,也必然涉及了某种非计算的物理过程。同时,也正是因为既有的计算机器是基于图灵可计算之上的,它们也就受限于形式系统所能模拟的那类计算过程,从而无法模拟非计算的物理过程。在此,彭罗斯基本重复了卢卡斯的论证。他更具原创性的地方在于,他将意识的机制归结为某种量子效应。根据塞尔的概括,彭罗斯的论证可以分为四个部分:

(1)哥德尔定理证明了形式系统中存在不能在该系统内被证明的真命题。

(2)计算机科学中的停机问题是哥德尔定理的一个特定版本,它可以证明我们的意识行为不能通过计算机来模拟。

(3)神经元是可计算的,它们的所有特征都可以通过计算机来模拟,因此神经元并不能解释意识,因为意识包含了不可计算的因素。

(4)要解释意识,就需要诉诸不可计算的亚神经元层次,这也许就是神经元的微管层次。然而,这需要一场物理学革命。[17]

因此,彭罗斯并不认为形式系统能刻画意识的全部特征;相反,只有诉诸量子力学的层次才能解释意识。在他看来,人脑中的量子效应来源于头脑中的微管,它里面存在的大尺度的量子干涉活动是意识的基础。虽然这个观点存在着巨大的争议,但它在科学的层面支撑了彭罗斯的反计算主义观点。

第三节 认知主义难题Ⅱ:符号奠基问题

对认知主义的另一个诘难来自于塞尔的中文屋论证。它虽然是从哲学角度来批评强人工智能的设想,但却出乎意料地在人工智能内部引发了关于符号奠基问题(Symbol Grounding Problem, SGP)的讨论。这个难题是认知心理学家哈纳德(Steven Harnad)基于塞尔的句法不能满足语义的论断而提出的,它指的是这样一个问题:一个形式符号系统如何可以内在地获得语义解释?这个问题在更大范围内涉及了认知科学哲学、人工智能哲学、心灵哲学甚至语言哲学中的大量核心问题,继而又引出了篇幅浩繁的研究文献。

一 从图灵测试到中文屋思想实验

人工智能的雏形构想可以追溯到阿兰·图灵(Alan Turing)。1950年,图灵在《心灵》(Mind)杂志上发表了一篇影响深远的论文《计算机器与智能》。图灵首先提出了这个问题:“机器能够思维吗?”他没有直接回答这一问题,而是设置了一个模仿游戏,将问题转换为:“存在着可以想象得到的能够在模仿游戏中干得出色的数字计算机吗?”[18]图灵设想有一个提问者和一个被提问者,以及一台模拟被提问者的计算机,他们分别被安置在三个不同的房间里。提问者分别向被提问者和计算机发出问题,然后通过二者给出答案来判别哪一个是计算机,哪一个是被提问者。如果提问者不能作出准确的判别,那么就可以假定计算机具有了相当于人类的智能。这种判别智能的方法后来被称之图灵测试。

然而,图灵测试是否能作为判别智能的恰当标准,一直以来争议不断。最著名的异议来自于塞尔的“中文屋”思想实验。塞尔通过这个思想实验表明,即便存在通过了图灵测试的数字计算机,它也并不必然具有人类意义上的智能。塞尔设想自己被关到一个屋子里,里面放置着各种中文资料,但因为他完全不懂中文,所以这些中文资料对于他而言就是一些毫无意义的涂画,不提供任何语义信息。通过一个窗口,有一些中文问题被投送到屋子里来,塞尔的任务是根据屋子里的一本英文手册上记录的规则,依照那些涂画的形状,对它们进行配对操作,然后将答案写在一个纸条上,送到窗口外面。最终,虽然塞尔对中文一窍不通,根本不理解中文的语义,但他却能够通过英文手册中的规则给出正确的答案。

正如中文屋中的塞尔不理解中文,数字计算机也不理解它所处理的内容。因为可以设想一台通过了图灵测试的计算机,我们用某种语言和它进行正常的交谈。但它的计算过程实际上等价于“中文屋”中的塞尔,都是在进行纯粹的句法操作,计算机的输入相当于“中文屋”中的问题,而输出相当于塞尔从“中文屋”中递出的答案,计算机程序则类似于英文操作手册。在这个意义上,计算机就如同“中文屋”中的塞尔一样,同样也是不理解输入和输出的语义的。因此,塞尔断定,计算机器无法像人类那样理解它所处理的语义内容,并不具有人类智能。[19]

塞尔的“中文屋”论证中的核心观点实际上有三点:(1)句法不足以产生语义;(2)语义是通过心灵的意向活动产生的;(3)心灵的意向活动只有生物大脑才能产生。从这三个观点出发,塞尔认为计算机的句法操作不可能产生语义,而机器要产生语义,就必须具有大脑产生心灵的能力,也就是产生意向性的能力。在这个意义上,虽然塞尔没有否认机器可以产生心灵,但实际上却在主张唯有大脑这种机器可以产生心灵。这正是他的生物自然主义的立场的反映。我们在此暂时不去评论塞尔的与(2) (3)相关的意向性理论,而仅止于澄清他对(1)的论证思路。

在塞尔看来,“中文屋”中的计算机与一个理解中文的人的不同在于,计算机仅仅是在响应符号串的物理形式,因而是形式化和纯粹句法的,但人却可以将语言中的词语与意义关联起来,它所响应的是语言的意义,而不是他们的物理表现。因此,句法的符号操作和语义的心理内容的区分,成为了塞尔“中文屋”论证的逻辑起点。塞尔后来基于这个区分进一步系统化了他的论证。他首先明确了三个基本的公理:

公理1:计算机程序是形式的(句法的)

公理2:人类心灵具有心理内容(语义的)

公理3:句法本身对语义并非是构成性的,也并非是充分的。

在塞尔看来,数字计算机处理信息不过是由0和1组成的字符串,它通过一整套确定的规则(即程序)对这个字符串进行物理操作。塞尔指出了两个关键之处,首先,符号和程序仅仅是抽象的概念,0和1没有任何如心理内容所具有的物理、因果的特性;其次,对符号的操作并不指称任何意义。在这个意义上,数字计算机是一个纯粹的形式系统,而不承载任何内容;也就是说,它仅仅是句法的,而不是语义的。因此,塞尔通过区分没有内在意义或内容的形式元素与具有内在内容的心理现象,从这三个公理出发,得出了这样的结论:

程序对于心灵而言既非构成性的也并非是充分的。[20]

如果说塞尔在“中文屋”论证还假定句法操作是内在于计算机的,只是因为句法不能满足语义,所以计算机并无智能,那么在后来发展的观察者相关(observer-relative)论证中,塞尔则进一步否认了计算机可以内在地满足句法描述。塞尔从图灵机模型的计算概念出发,指出图灵计算是独立于物理实现的,因为无数种物理介质可以实现图灵计算。塞尔认为这种多重可实现性会带来两个问题:首先,计算的多重可实现性意味着一切都可能是数字计算机,因为我们可以将特定的句法描述指定给它们;其次,句法不是内在于物理学的,而是一个行动者或观察者将特定的物理现象视为句法的。[21]因为句法实际上是与观察者相关的,计算机的句法特征并非是内在于系统的,在计算机的句法描述和物理描述之间,并没有因果相关性,前者依赖外部能动者的解释,并且是由观察者赋予物理现象的。最终,塞尔在区分句法和语义之后,又进一步区分了句法和物理。这样,塞尔就把物理的、句法的和语义的三个层面的属性孤立起来。物理现象与句法描述无关,而句法又不足以产生语义;最终,任何物理现象自身都不足以产生语义,机器的机械符号操作如果不依赖人的解释,就是毫无意义的。于是,如果塞尔的论证是正确的话,人工智能就是不可能的。

二 符号奠基问题与哈纳德的回答

塞尔在“中文屋”论证和观察者相关论证中,实际上提出了这样一个问题:形式符号系统的句法属性或物理属性是否能够充分决定语义内容?塞尔给出的回答无疑是否定的。但要让人工智能系统成为可能,就必须让人工系统可以自主地产生语义内容。这也正是所有致力于解决SGP的研究者的任务。我们在此首先来关注哈纳德对SGP的最早表述,以及他所提出的解决方案。

在塞尔的中文屋思想实验的基础上,哈纳德假想了两个类似的例子。第一个例子是,一个人将中文作为第二语言来学习,但他只能求助于一本双汉词典。这个学习过程就是从一个无意义的符号或符号串转向另一个的连环圈,却很难获得其中的意义。哈纳德没有完全否认这种学习的可能性,这类似于破译一种古代语言,但他也指出,这些工作的可能性奠基于学习者的第一语言和在真实世界的经验和知识。哈纳德继续设想了第二个例子,即排除任何预先的语言和经验,将中文作为第一语言来学习,同样也只能求助双汉词典,那就完全不可能学会汉语了。哈纳德认为,第二个例子就类似于心灵的纯粹符号模型,虽然这些符号可能是有意义的,但它们的物理外形和句法属性都不能提供符号的语义线索,因此它们所处理的符号最终都是毫无意义的。这样一来,如何摆脱从符号到符号的无意义循环,就成为一个关键问题,这就是所谓的符号奠基问题(SGP):

形式符号系统的语义解释如何可以内在于系统,而不是依赖我们头脑中的意义?那些仅仅基于它们任意的形状而被操作的无意义的符号标记,如何奠基于其他事物而非另外一些无意义的符号?[22]

然而,塞尔的论证已经指出,形式符号系统的句法和物理属性并不能充分决定其语义内容,所以要解决这个问题,要么默认塞尔的论证是正确的,但否认智能系统是形式符号系统;要么反驳塞尔的论证,认为形式符号系统可以因果地产生语义。在此我们不拟讨论后者的可能性,而只讨论前一种思路,因为绝大多数的符号奠基方案都是将智能系统预设为其他系统,从而得以将符号与环境勾连起来,将语义内容赋予符号。所以哈纳德实际上并没有对他所谓的SGP作出直接的解答,而是将其转化为一个更具开放性的问题:一个智能能动者如何发展出一种自动的语义能力,让符号与能动者所嵌入的环境关联起来。显然,这个智能能动者并不必然是一个形式符号系统。我们将看到,在不同的符号奠基路径中,它可以是一个杂合系统、神经网络系统、动态交互系统、符号学系统,等等。

哈纳德的解决办法是设计一个杂合系统,从而摆脱用一个无意义的符号定义另一个无意义符号的连环圈,将符号系统中的意义奠基于非符号系统之上。为此,哈纳德借用了联结主义的认知模型,假定了一个杂合的非符号/符号系统,其中,符号系统中的基本符号奠基于非符号系统中的两种表征:图示表征(iconic representations)和范畴表征(categorical representations)。哈纳德用神经网络模型来模拟这种非符号系统,它可以通过接受感官映射数据的输入而获得图示表征和范畴表征,让表征与所指的关联成为可能,但神经网络并不能产生符号表征,为此他补充了一个符号系统,从而让杂合模型可以进行符号操作,使其兼具符号主义与联结主义的优点,既可以句法地操作符号,又可以奠基符号的意义。

哈纳德将符号的奠基过程分为三个阶段:图示化(iconization)、判别(discrimination)和辨识(identification)。在图示化阶段,远端对象通过感觉器官形成图示表征,比如,在我们看一匹马的时候,不同的马匹的形状投射在我们的视网膜上,进而被神经系统中形成的图式表征所模拟。基于这些图示表征之间的相似度,我们将会形成对它们的“相同/差异”的判断。哈纳德将这个过程称为判别,它同时也是一个范畴化(categorization)的过程,因为在这个过程中形成了范畴表征。在判别过程中,我们可以把握图示表征之间的不变特征。比如,我们通过判别不同马匹之间以及马匹与其他事物之间的相同和差异,从而捕捉到马匹的不变特征,进而形成马的范畴表征。符号奠基的第三个步骤是辨识。所谓辨识,就是可以“对一个类别的输入指派某种独特的回应(比如一个名称),将它们全部作为等价的或某些方面不变的。”[23]因此,辨识的功能在于将输入与某种特定的符号关联。辨识与判别的区别在于,判别并不需要知道事物是什么,它只需要把握到图示表征之间的相似与差异,并从中抽出某一类图示的不变特征;而辨识则可以将某一固定的名称与这种不变特征相关联。

奠基的三个阶段分别形成了三种表征。其中,图示表征保留了感觉映射的原始轮廓,各种图示是连续和混合的,而范畴表征则是将图示表征选择过滤之后的输出,它经过了初步的分类整理,我们可以从中区分出不同的事物。但无论是图示化还是判别过程,它们都是非符号过程,同样,图示表征和范畴表征也都是非符号表征。在哈纳德看来,这两种表征都还不具有意义。图示表征相当于照相机中的照片,它们的意义都是衍生的而不是内禀的,因为最终还是依赖观察者的解释。而范畴表征只是一种消极的分类,并没有被命名,因此缺乏符号系统的复合性(compositeness)与系统性(systematicity)的特征,无法具有符号系统所特有的那种意义。

在哈纳德的定义中,符号系统是一系列任意的物理标记构成,它们依据某种任意的和明确的规则而被操作,依据某种明确的规则,通过对符号标记的组合和重组,可以对这些标记进行句法的操作;也就是说,这种操作是基于符号标记的形状而不是意义。所谓符号系统的复合性,指的是原始的原子符号标记可以组合成符号—标记串,而系统性指的是整个符号系统及其部分,都是语义上可解释的(semantically interpretable);也就是说,句法可以被系统地赋予意义,以代表一个对象,描述一个事态。[24]显然,神经网络不能满足符号系统的复合性和系统性的要求,因为神经网络中的信号是模拟的而不是数字的,从而无法分解、组合和重组,最终无法进行形式的句法操作,所以我们就不能赋予它们一种系统的语义解释。一个表征要具有意义,必须可以被组合和重组,从而被规则化地带入命题之中。

在哈纳德看来,我们并不需要奠基全部的符号,有一套基础符号被奠基之后,其余的符号可以通过这些基础符号的组合而产生。而这些组合而成的符号同样是被奠基的,它们继承了基础符号的内在奠基属性。比如“斑马”这个符号,是通过“条纹”和“马”组合而成的,即便我们没有见过斑马,也可以知道它的意义,只要“条纹”和“马”已经是被奠基的。

哈纳德将这种被奠基了的符号系统称为专用符号系统(dedicated symbol systems),相比于一般符号系统,它对符号标记具有更多的约束。在一般符号系统中,只有纯粹的句法约束。但在专用符号系统中,除了句法约束之外,还存在着与非符号表征相关的模拟约束。也就是说,对符号的操作不仅是基于符号标记的任意形状,而且是基于非任意的奠基了基础符号的图示和范畴表征的“形状”,也即符号所指称的对象的模拟的感觉映射的感官不变量(sensory invariants)。

因此,在哈纳德所设想的自下而上的符号奠基过程中,在远端对象、近端感觉映射和内部的表征生成之间存在着因果关联,符号的奠基过程存在着因果力的作用。也就是说,整个认知过程是执行依赖的,而不是独立于物理执行的。这样,符号的意义就不是任意指定的,不是源于外部解释者的头脑,而是内在于专用符号系统的。

三 符号奠基的两种路径:内在奠基与因果奠基

哈纳德提出的SGP,成为了人工智能领域的研究者必须直面的一个经典难题。如果说塞尔的“中文屋”论证还是纯粹的哲学思辨,那么哈纳德则赋予了SGP实证科学的内涵,并将其带入机器学习领域,最终与锚定问题(anchoring problem)、模式识别(pattern recognition)等具体的技术问题产生了关联。[25]这样,关于句法是否满足语义的哲学论辩,就转化成为了机器如何自主获得或学习语义内容的工程学问题。然而,SGP也并非简单地是一个工程学问题,在对SGP的后续讨论中,它仍然不可避免地与哲学有着千丝万缕的牵连。

基于不同的哲学立场,后来的研究者提出了不同的符号奠基策略。弗洛里迪根据表征在奠基过程中的不同角色,将符号奠基解决方案划分为表征主义路径、半表征主义路径和反表征主义路径。[26]而齐姆克(Tom Zi emke)则基于能动者以何种方式勾连(hook to)外部世界,区分了认知主义和生成范式两种解决方案。[27]但这种划分仍然停留在表面,没有把握不同方案背后的哲学观念上的最本质的差异。实际上,SGP最终涉及的是意义的来源问题。对于人工智能的捍卫者而言,人工能动者无疑是可以自主产生意义的,问题的关键就在于,这种意义内容是位于外部世界,还是存在于能动者的内部。对这个问题的不同看法,实际上反映了心灵哲学中的内在论和外在论之争。我们在此将采用查尔莫斯基于内在论和外在论之分而提出的一个划分:因果奠基(causal grounding)和内在奠基(internal grounding)。在他看来,关于表征如何获得真实的意义这一问题,依赖对意义的看法是外在论的还是内在论。如果采取外在论立场,就会认为符号的意义是外在的、延展的,表征只能奠基于能动者与外部环境的感觉运动交互之中,这就是所谓的因果奠基;而如果采取内在论的立场,认为符号的意义最终是内禀的,我们就必须保证表征具有充分的内部结构以承载内禀内容,因此奠基的方法就在于找到一种产生表征的内部介质,它可以比计算标记更为丰富,从而可以占有内禀内容。查尔莫斯将这种奠基称为内在奠基,它的代表就是联结主义,将表征奠基于分布的活动模式。[28]实际上,正是这两种基于不同意义理论的奠基路径,标识了不同的奠基策略,生成主义、反表征主义的奠基策略往往属于因果奠基路径,而认知主义、表征主义的奠基策略一般可以归入到内在奠基的范畴。查尔莫斯并未对两种奠基进行更详细的阐述,我们在此将基于他所提供的这个类型学划分,联系两种奠基类型的代表性策略来分析它们各自存在的困境。

(一)内在奠基的困境

各种联结主义的路径,几乎都可以归入内在奠基的范畴。相比于符号主义范式中物理与句法符号之间的任意性,联结主义奠基试图通过神经网络模型,在表征与物理对象之间建立起因果关联。在杰克逊和夏基看来,符号主义的认知系统是通过句法引擎驱动的;也就是说,认知是通过执行纯粹句法的表征或符号操作而实现的。但句法引擎所操作的心理表征,却面临着一个内在论陷阱(internalist trap):即从传统心灵理论的内在论观点出发,表征不过是心理事件之间的交互,这样表征就缺乏指称意义,而不能与外部事物勾连。所谓勾连,就是一个奠基过程,其中的关键在于找到所要勾连的两者之间的结构相似性关系。他们倡议通过联结主义来解决这种勾连问题。在他们看来,句法引擎诉诸的是原子表征与外部对象之间的句法结构相似性关系,而联结主义诉诸的则是原子表征与感觉信号之间的空间相似性关系(Spatial Structure Similarity Relations),在这个意义上,他们也将联结主义的认知机制称为空间引擎(spatial engine)。在他们看来,哈纳德的杂合模型中被奠基了的原子表征并不足以决定由其组合而成的分子表征的语义,因为这种组合是语境依赖的,它可以组合成多种不同语义的分子表征。比如,“条纹”和“马”不一定组合成“斑马”,也可能组合成披着条纹马鞍的马,这都是跟语境相关的。所以句法结构的相似性并不足以奠基语义,它需要借助其他的非符号的表征资源。而空间引擎的空间结构相似性所奠基的原子表征,因为它们具有比句法引擎更多的表征资源,则可以避免这种语境依赖。他们将这种原子表征称为权重表征(weight representations),它们可以组合成充分分布的单元表征(unit representation)。后者就奠基于前者的复杂的内部结构中。[29]

然而,空间结构相似性是否就可以避免语境依赖呢?实际上,任何联结主义认知模型最后都承诺了一个符号输出,但这种输出依然需要外部语义资源的帮助,因为对网络空间结构的解释依然需要一个外部的观察者。

人工神经网络的学习方式可以分为监督学习和非监督学习,但实际上两种学习都无法自主生成语义。在监督学习中,预先植入训练样本,这个样本包括了输入数据(感觉映射)和期望得到的输出值(标签),通过分析该样本从而训练得到一个最优模型,并将其应用到新的实例中,最终实现对数据的分类处理。而非监督学习则没有任何训练样本,只是通过聚类算法直接处理输入数据来发现其空间结构,从而实现分类的目标。在监督学习中,因为需要预先包含监督信号的训练样本,这种符号奠基就是外在的;而在非监督学习中,仍然需要内置偏好(built-in biases)和特征探测器(feature-detectors)来获得所期待的输出,因为存在输出审核的问题,这种奠基仍然是外在的。因此塔代奥(Mariarosaria Taddeo)和弗洛里迪(Luciano Florid)认为,无论是监督学习还是非监督学习,无法满足符号奠基的零语义承诺条件(zero semantical commitment condition)。[30]

所谓零语义承诺条件,是塔代奥和弗洛里迪为了判定一个符号奠基策略是否成功而提出的评价标准:

(1)任何形式的先天论都不被允许;没有任何的语义资源被假定预装在AA上。

(2)任何形式的外在论都不被允许;没有任何语义资源可以通过机械降神的方式被上载到AA上。

当然,(1)和(2)也不排除这种可能性,即

(3)AA具有自己的能力和资源(也就是通过算法、传感器和制动器等开发的计算的、句法的、程序的、知觉和教育的等资源)可以奠基符号。[31]

也就是说,一个成功的符号奠基策略应该让该人工智能系统具有自主生成语义内容的能力和资源,而不需要依赖于预先或外部的语义植入。该系统可以被预先设计好既定的认知结构、模式和规则,但是在认知过程中,不能借助先天或外在的语义资源。只有满足这个零语义承诺条件,一个符号奠基策略才是成功的。当然,零语义承诺条件并非唯一的标准,我们将在后续的讨论中,继续补充其他的评价标准。在塔代奥和弗洛里迪看来,包括哈纳德在内的几乎所有符号奠基路径,都无法满足零语义承诺条件。

以联结主义为代表的内在奠基的问题在于,神经网络中的节点单元之间的空间结构,是否可以因果地决定表征的语义内容?也就是说,这种空间结构是否可以因果地产生内容,而不需要被任意赋值?人类的神经网络无疑可以自动地产生语义,但人工神经网络中的空间结构是否可以因果决定语义内容,就并非那么确定了。如前所述,无论是在监督学习还是在非监督学习,都需要外部观察者或明或隐的语义赋值。人工神经网络的语义内容最终取决于我们对这个网络的解释,语义内容依然是寄生于观察者的头脑中的。因此,基于联结主义的符号奠基路径起码到目前为止并未满足零语义承诺,内在奠基的方案基本是失败的。

那么,因果奠基的方案是否获得了成功呢?几乎所有的体化和情境进路的AI研究,都采取了因果奠基的方式。因果奠基不再诉诸表征的内部结构,而是诉诸人工能动者与环境的交互,认为语义就诞生于这种交互之中。我们在此主要考察这一进路的代表布鲁克斯,来揭示这一奠基路径所面临的困境。

(二)因果奠基的困境

就在哈纳德发表《符号奠基问题》的同年,布鲁克斯提出了一个外在奠基的方案,他称为“物理奠基假说”(physical grounding hypothesis)。在布鲁克斯看来,此前的基于计划和表征的人工智能研究已经误入歧途,有必要以新的范式取而代之。他提出,新的AI基于物理奠基假说:“建立一个智能系统,必须要具有奠基于物理世界中的表征。”一旦这种“表征”实现,传统的符号表征就毫无必要了。在这种系统中,能动者通过一套传感器和驱动器与世界进行联结,实时的动态交互取代了静态的输入和输出。[32]它具有两个最为关键的特征:体化性和情境性。一方面,机器人具有身体,可以通过其感觉运动器直接经验世界,从而因果地与世界关联;另一方面,机器人是情境化于世界中的,它所处理的是世界此时此刻对系统行为的直接影响,而不是抽象的推理或对世界的建模。[33]布鲁克斯将这种观念称为无理性智能或无表征智能。在他看来,智能能动者无需像经典AI那样建立关于世界的模型。相反,“世界就是它自己的模型”,智能行为可以通过机器人与环境之间的交互来实现,符号表征完全没有必要。[34]

大多数因果奠基路径因为不处理符号表征这一概念,实际上已经将SGP转化成了能动者的行为奠基问题或内部机制奠基问题。然而,在处理高级智能行为时,我们实际上仍不得不进行符号操作,SGP仍然是一个必须处理的议题。根据弗洛里迪的归纳,这种非表征进路的符号奠基大致有两种类型:一是基于通讯的模型,它将学习能动者对教师能动者在一个共同环境中的交互,通过前者对后者的言语行为的模仿,来学习共同语言;二是基于行为的模型,它基于语言习得理论,将语言视为能动者与环境和其他能动者交互的工具;也就是说,语言是为了满足能动者的需要而操纵环境的一种方式。[35]这两种奠基模型,都将意义奠基于外部的通讯或行为模式中,而不是归诸于行动者的内部状态,因此都可以归入因果奠基的范畴。

如此一来,因果奠基因为完全否定了符号表征在智能行为中的作用,似乎可以免于SGP的困扰。然而,这只是规避而不是解决了SGP,因为这种路径仍然面临着更大的奠基困境。如果说内在奠基面临着内在论陷阱的困境,那么因果奠基就临着外在论陷阱的困境。齐姆克将这种外在论陷阱表述为:“如果仅仅是世界的此时此地决定一个能动者的行为,也就是,如果能动者仅仅是对当下的环境作出回应,能动者最好被描述为受环境木偶操控者控制的,而不是自主的。”[36]这样的能动者行为很可能是由环境被动决定的,而不是由自身的经验引致的。这个外在论陷阱也意味着,能动者的语义资源最终可能是由外部植入,而不是自主生成的,由此也违反了零语义承诺条件。

如果说我们是将观念和表征与外部世界勾连,来摆脱内在论陷阱,那么要摆脱外在论陷阱,就需要将能动者的行为奠基到其内在的经验中。要达到这个目标,一方面可以诉诸能动者对内部状态和记忆的使用;另一方面可以诉诸能动者的学习机制,可以通过它获得新的经验。这些都可以增强能动者的自主性,降低环境和外部设计者对能动者行为的决定作用。然而,这种思路往往让我们不得不回到内在奠基的思路,即诉诸一个人工神经网络来奠基符号,内在奠基的困境又将重返。

四 符号奠基的指号学路径

如前所述,各种内在奠基路径因为不能满足零语义承诺的原初要求而失败了,以物理奠基假说为代表的因果奠基则因为放弃了符号的概念而不能处理高级智能行为。这样就出现了一种路径,它致力于既保留符号这一个概念,又充分吸取因果奠基路径的优点。这就是符号奠基的指号学路径。它通过引入皮尔士的指号学理论,重新界定符号这一概念,试图吸取符号主义和体化或生成路径的优点。费策尔(James H.Fetzer)较早地将皮尔士指号学引入到人工智能哲学中,并区分了符号系统和指号学系统。后来,斯蒂尔斯(Luc Steels)和沃格特(Paul Vogt)等人则从工程学上实现了基于指号学系统的机器人,并用它来模拟语言的发展和演化过程。

皮尔士指号学曾经将指号定义为为了某个解释者而代表某物的某种符号,在这个意义上,它可以分为表征项(又称指号、形式等)、解释项(意义)与对象三个元素。所谓表征项,也就是指称某种对象的指号形式本身,而解释项就是指号所体现的意义,对象就是指号的所指。诸多的研究者正是从皮尔士的这种划分出发,提出了超越原有符号主义范式的替代路径。

纽维尔和西蒙为代表的符号主义路径将心灵视为一个物理符号系统,而费策尔则认为,心灵应当定义为一个指号学系统。指号学系统“具有创造和使用指号的能力,这种能力要么是自然产生,要么是人工产生的”[37]。在他看来,指号学系统与物理符号系统的差异在于,在前者那里,指号对于系统的使用者(user)而言是有意义的;而对后者而言,指号只有对于系统的使用(use)而言是有意义的。在这个意义上,因为指号学系统中存在符号的使用者即解释者,就可以通过解释者奠基符号形式或表征项与对象之间的关系,而在符号系统中,因为系统本身不存在解释者,符号形式与对象之间的关系就只能是外部赋予而不是自主生成的。因此,指号学系统从定义上就是包含了奠基关系的。但费策尔的指号学系统理论主要旨趣在于批判强人工智能和计算主义的观点,并没有对SGP作出更进一步的探讨。后来的斯蒂尔斯和沃格特等人,独立提出了关于指号学符号的理论,并用它来解决SGP。

在沃格特看来,只要将认知过程解释为符号操作,就不可避免地会面临框架问题(frame problem)和SGP的困扰,认知的体化路径虽然避免了这些问题,但却不能处理高级认知功能。沃格特致力于综合两种范式,认为符号可以从能动者与环境的交互中被奠基。[38]他认为这种符号不是物理符号系统意义上的符号,而只能是皮尔士指号学意义上的符号。在皮尔士指号学中,符号的意义来源于形式(再现体)、意义(解释项)和所指(对象)之间的交互;也就是说,符号的意义取决于指号学符号是如何被构造的。沃格特因此认为指号学符号的意义是形式与所指之间的功能关系,它基于能动者的身体经验与所指之间的交互。更详细地说,形式与所指之间的功能关系,是通过能动者与所指之间的交互,以及在能动者之间的通讯中约定的形式符号而确定的。能动者在与所指的交互过程中,通过知觉和分类产生了意义;在通讯过程中,则约定了特定的符号来代表某种特定的意义。这两个过程分别对应着所指与意义、意义与符号的锚定(anchoring),而符号与所指的锚定则是通过这两个锚定间接实现的。[39]在这个意义上,指号学符号从定义上就是被奠基的,因为指号学符号中的三元关系已经包括了意义,所指与表征项之间的关系已经被奠基了。因此对于指号学符号而言,SGP是不相关的。沃格特因此认为,如果采用皮尔士指号学中的符号系统,SGP问题就转换为一个如何在工程学上实现指号学系统的问题,也就是物理符号奠基问题。[40]沃格特采用了一种适应性语言游戏(adaptive language games)的方案来解决这个问题,在这个游戏中,两个情境机器人共享一个环境,其中一个机器人给它感知的某个对象命名,通过机器人之间的通讯;另一个机器人获知这个新的名称而不知道它所指称的对象。然而,通过不断的试错,它最终可以知道这个名称所指称的对象。[41]通过这个游戏,机器人就可以发展出一种共同的指号学符号系统。正因为这种工程学上的成功,一个能动者种群可以自组织奠基于与世界和他者的交互中的符号系统。所以,斯蒂尔斯认为,SGP实际上已经被解决了。[42]

然而,沃格特和斯蒂尔斯的方案仍然存在两个主要问题。首先,在能动者与环境交互的指号学过程中,涉及意指、言语操演(language performance)、通讯等多种符号过程,但猜谜模型却无法完全捕捉到这些指号学过程的全部特征。他们所提出的语言游戏虽然能够奠基一些基本符号,但是一些更为语境依赖的符号能否通过这种方法来奠基,却是存在疑义的。这意味着它们所奠基的符号缺乏语用特征。其次,在这些被奠基的基本符号之间,缺乏恰当的句法规则来将这些符号组合起来,从而可以让这些符号构成为一个符号系统。正如哈纳德最初所提出的,一个符号或表征要被完全奠基,就应当可以被组合或重组,最终可以被规则化地带入命题中。在皮尔士的指号学中,一个符号具有句法、语义和语用三个方面的特征,但他们所奠基的符号,却只有语义特征。基于皮尔士指号学的立场,我们可以在零语义承诺条件之上补充一个符号奠基的标准:被奠基的符号必须具有句法特征和语用特征,从而使其具有组合性、系统性和语境性。无疑,斯蒂尔斯和沃格特的指号学奠基策略并不满足这一标准。

五 语义学层面的符号奠基问题

原初的SGP致力于将语义解释内在于一个形式符号系统,但哈纳德实际上改换了这个问题,没有将智能能动者设定为一个形式符号系统,而是代之以其他系统。不同进路的研究者提出了不同的智能系统模型以解决这个问题,比如杂合模型、神经网络模型、动态交互模型、指号学模型等,人工智能的研究也在这个过程中得以推进。于是,SGP就转化为这样的问题:一个智能能动者如何具有自主的语义能力?但这个问题实际上还可以进一步区分为两个层面,其一涉及语义内容的产生机制,其二涉及自主语义能力的实现。前者是一个语义学问题,后者则是一个工程学问题。因此我们不妨将SGP区分为两个层面的问题:

(1)既然形式符号系统的句法和物理属性无法充分决定其语义内容,那么语义内容又是被什么所充分决定的?它的产生架构是什么?(语义学层面)

(2)一个智能能动者如何发展出一种自动的语义能力,让符号与能动者所处的环境关联起来?(工程学层面)

两个层面的SGP虽然相互关联但其含义却并不相同。在工程学层面上,它关涉的是设计一个什么样的智能模型或系统,从而可以让其不借助外部的解释者而自主地获得语义内容。它在人工智能领域更为具体的体现就是机器学习,当前的基于人工神经网络的深度学习技术在某种意义上可以视为对这一问题最为流行的工程学解决方案。然而,原初的SGP实际上关切的是符号的意义的来源,因此如果没有恰当的意义理论,很难澄清符号的意义获取的过程和机制,无法设计出良好的语义生成架构,从而也无法最终解决 SGP。在克里斯蒂安森(Morten H.Christiansen)和蔡特(Nick Chater)看来,SGP实际上就是在提供一种原子符号如何指称的理论,它和意义理论所要说明的都是“非指称的原子标记或系统状态如何成为系统中的语义基元”。[43]在这个意义上,SGP最终可以还原为语义学问题(并且因为语义关系最终是被奠基于非语义的自然关系之上的,SGP就可以进一步还原为自然化语义学问题),它在工程学层面的解决也最终有赖于它在语义学层面的解决。然而,迄今为止的大多数符号奠基路径,都缺乏一种恰当意义理论以支撑它们的理论,以上所述的各种奠基进路所关切的其实都是工程学层面的SGP。

弗洛里迪在一定程度上意识到了这个问题。他所倡议的实践解法(praxical solution)在语义学层面提出了一种基于行动的语义学(actionbased semantics, AbS),随后又在工程学层面提出了一种双机人工能动者(two-machine artificial agents, AM2)的工程架构来实现AbS,从而完成对符号的语义奠基。因此在他那里,语义学层面的SGP要先于工程学层面的SGP。

弗洛里迪这里提出的 AbS 是一种自然化语义学,但它与德雷斯基、密立根等人的自然化语义学不同,它并不将意义奠基于任何一种自然的因果或目的论关系之中,而是奠基于人工能动者的行动操演所引致的内部状态。弗洛里迪设计了两个抽象层次(levels of abstraction, LoA),它需要一个双层构架的人工能动者(AM2)来实现。AM2的底层(M1)处理的是行动如何关联于世界(实际上是内部状态如何关联于行动);而顶层(M2)则处理符号如何关联于行动。因此,AM2的行动对应着其内部状态,而这种内部状态又有一个符号与其对应。符号最终被奠基于AM2在世界中的行动。需要说明的是,为了免于预先的语义植入而违反零语义承诺条件,弗洛里迪这里所说的行动是目的论无涉的;也就是说,它并不涉及行动的目的,而仅仅涉及行动的操演(performance)。但是这种被奠基的符号有可能成为维特根斯坦所说的私人语言,为此,弗洛里迪设计用一个AM2s种群来发展其通讯技能,最终创造共享的语汇。它类似于斯蒂尔斯和沃格特所提出的猜谜游戏,通过这种社会协作,符号在演化过程中得以避免私人语言的困境。[44]显然,弗洛里迪的思路是,通过重新提出一种新的语义理论,以解决意义的来源问题,最终在工程学上实现符号的奠基。

但弗洛里迪的解法仍然存在一些问题,比如它的符号是非组合性的,无目的的行动概念将导致粗率的行为主义错误,等等。[45]我们在此不拟对这些问题一一评论,而是要重点指出两点。首先,AbS 中的奠基依据的LoA关系仅仅是一种简单的映射关系,它甚至比德雷斯基的自然化语义学所依据的因果关系还要宽泛,正如自然因果关系不能充分决定语义内容[46],映射关系也很难决定语义内容。在行为状态—内部状态—符号的两重抽象层次中,相同的行为状态可能对应着不同的内部状态,比如“挥手”这一行为状态,可能表示欢迎,也可能表示送别,这都需要考虑更大范围内的语境。同样,任何符号都可以被设定为对应着特定的行为状态。这种映射关系太过于自由,以至于任何系统中的符号都可以奠基于某种行动。在这种设定下,即便是“中文屋”的符号,也可以是被奠基的,因为“中文屋”中的符号也对应着某种行为状态。因为任何符号都与某种内部状态存在映射,进而与某种行动存在映射,所以任何符号都是被奠基的。因此,如果不对LoA施加恰当的约束,就无法充分奠基一个人工能动者的符号系统。就此,我们可以提出评价符号奠基策略的另一套标准:符号所据以奠基的非语义的对象、事态或关系(或驱动引擎),应该能充分决定其语义内容。

其次,由于AbS(包括其他解决办法)中任意的符号总是与某种实存事物相关联,因此它就不能意指任何非实存的事物,从而人工能动者将无法进行错误表征。这里的问题在于,如果AbS语义模型缺乏错误表征的能力,那么这就将意味着它并不具有正常的表征能力。正如德雷斯基所令人信服地指出的,正常的表征能力总是意味着进行错误表征的能力,如果没有错误表征的能力,就无所谓有没有表征能力。[47]错误表征的能力对于人工能动者的自主学习行为而言是一个必要条件,如果没有错误表征的能力,那就意味着人工能动者的学习行为只是受到一种必然性规律的驱动,而不是出于自主的能力驱动。在此意义上,我们可以补充符号奠基策略的第四条标准:符号奠基所依赖的语义系统应该有错误表征的能力。

因此,虽然弗洛里迪正确地将 SGP 的解决建立在语义学层面之上,但是它所提出的AbS模型并不能解决SGP,我们必须寻找一种替代的语义学模型。然而到目前为止,由于大多数语义学模型仍然存在着析取问题等难题,我们并不能套用任何一种现成的语义学来解决SGP。

总之,目前对SGP的解决存在着内在奠基、因果奠基和指号学奠基几种进路。但这些方案基本限于设计一个人工模型或系统,使其具有自动的语义能力,从而停留在工程学层面的解决上。然而,到目前为止,这些方案都存在这样那样的缺陷,因为如果不提出恰当的意义理论,那就难以明确人工系统的意义来源,最终无法成功解决SGP。基于这种恰当的语义学理论之上的SGP解决策略,应当满足这四个要求:(1)在符号奠基的过程中,不应该依赖外部的语义资源;(2)被奠基的符号应该具有句法和语用特征;(3)非语义的奠基关系可以充分决定语义内容;(4)语义模型应该有错误表征的可能性。只有满足了这四个标准,一个符号奠基策略才是恰当的。

符号奠基问题是内在于认知主义的一个根本难题,但继起的联结主义也难以解决这个问题。像沃格特和斯蒂尔斯的相对成功的指号学奠基路径,诉诸了能动者与世界的交互作用,呼应了超脑认知的观念。这似乎意味着,只有一种体化的、情境的路径才可以解决符号奠基问题。

第四节 认知主义难题Ⅲ:框架问题

除了塞尔和哈纳德所引出的符号奠基问题,符号主义人工智能还面临着来自现象学传统的批判。这一批判的重心主要聚焦于所谓的框架问题(frame problem)。德雷福斯、惠勒等人都对此问题进行探讨。在他们看来,框架问题是传统的基于符号表征的认知科学所必然面临的难题,且这种难题在传统范式下是不可解决的,只有诉诸现象学资源,才能消解框架问题。

一 框架问题

框架问题本来是内在于人工智能的最早范式即基于逻辑的人工智能的一个技术问题,最早由麦卡锡(John McCarthy)和海耶斯(Patrick Hayes)于1960年代提出。[48]在当时主导的人工智能研究中,使用逻辑表达式来表示机器的表征,通过这种符号表征进一步控制机器的行为。这种策略对于一个静止的场景而言是充分的,只要在机器内存储充分的关于这个场景的符号表征,机器就可以通过逻辑符号处理这个场景中的行动。但是在现实的场景中,机器的行动总是会带来环境的改变,于是机器内的关于环境的表征就必须更新。然而,如何写下描述行动带来的后果的逻辑方程式,却不必写下附带的描述行动的非后果的方程式,却成了一个难题。对于一个完全的智能能动者比如人而言,他可以具有足够的常识和信念,知道当一个行动发生之后,世界中有哪些事情会发生变化,而哪些事情不受这个行动的影响。在这个意义上,存在着关于“一个某种变化产生之后其他一切不变”的框架在指导智能能动者的行动。比如,一个智能能动者在一个房间里,我们用行动式Move(c, p)表示它移动水杯的行动,用效果式Position(c, p)表示移动水杯后的效果。相应地:

Paint(d, blue)=喷涂桌子的颜色为蓝色

Color(d, blue)=桌子颜色变为蓝色

如果我们写下行动式:Paint(d, blue)之后Move(c, p),直觉上应该得到Color(d, blue)和Position(c, p)的效果式,但是我们实际上只能得到Position(c, p),因为我们在逻辑上并不能排除Paint(d, blue)后,产生Color(d, blue)的效果,所以我们只能补充上一个框架公理:

Paint(d, blue)后Move(c, p), Color(d, blue)。

这个公理被包含于一个更宽泛的公理:

当Move(c, p)后,除了Position(c, p),其余一切不变。

显然,当涉及更多的行动和更多的对象之后,我们必须补充更多的公理,甚至对整个情境中的对象都作出描述。比如,当 Move(c, p)后,除了Position(c, p),杯子(以及桌子、墙壁、天花板、壁橱……)的颜色(以及大小、形状、质量……)都不变。如果智能能动者涉及了M个行动,然后产生了N个性质改变,我们就必须写下几乎MN个框架公理。[49]但这些框架的数目往往难以计数,即便可以将其形式化地表达出来,也将会产生巨量的信息,让机器的运算能力难以负载。

在技术上要解决这个问题,就要诉诸一种缺省假定,即常识惯性定律(common sense law of inertia)。也就是说,我们假定一个行动并不会改变一个情境的给定属性,除非有证据表明某种属性确实发生了改变。然而,因为普通的形式逻辑是单调性的,无法处理缺省推理。因此,最终的解决办法是发展各种非单调推理形式体系。在沙纳汉看来,这种方法已经从技术层面解决了框架问题。[50]人工智能的研究者大都同意这种看法,但对于哲学家而言,这不过是掩耳盗铃而已,因为这种所谓技术上的解决实际上预设已经解决了框架问题中的语义学问题,并绕开了认识论问题。徐英瑾认为,哲学家所关注的框架问题,聚焦于语义学和认识论两个问题。前者是指逻辑式中的指称记号如何与被表征对象勾连的问题;后者则是我们对世界的朴素认知能否通过逻辑技术而被全面回避的问题;也就是说,形式化的符号表征能否满足我们对世界的常识。[51]这两个问题,实际上也就是我们所提到的表征之路的语义学和认识论的勾连问题。因此,起码在哲学家看来,框架问题远未被解决。

丹尼特[52]、福多[53]等人较早将框架问题引入到哲学讨论中,让它成为一个认识论问题。它意指的是:“如何通过一系列经典AI中使用的命题的、语言式的表征来把握一个整体的、开放式的、语境敏感的相关项。认识论的框架问题的计算方面的副本就是,当给定的相关项是整体的、开放的和语境敏感的时候,推理过程如何顺利地限定于相关范围之内?”[54]

因此,框架问题实际上在以两种进路被理解。对于计算机科学家和认知科学家,它在狭义的技术意义上被理解,这种理解几乎没有什么哲学意味。但对于哲学家和具有哲学兴趣的技术专家而言,它们是在一种更宽泛的认识论层面上被理解。[55]因此,框架问题已经从一个狭义问题,扩展到一个广义的认识论问题。狭义的框架问题关涉的是这样的一个问题,使用形式逻辑无法描述不能被行动改变的世界状态的特征;而广义的框架问题则涉及如何提供这样一个信念框架,可以按照新的特异性信息对它进行修改。[56]虽然在沙纳汉看来,狭义即纯粹逻辑层面的框架问题已经解决,并且它的解决也不依赖广义框架问题的解决;但是在我们看来,框架问题意味着这样一个认识论困境:形式符号系统无法模拟人类的真实认知行为,我们关于知识获取的认识论存在严重的缺陷。在这种认识论的指引下设计的形式符号系统,无法勾连智能能动者与世界。在这个意义上,作为认识论问题的框架问题,往往意味着对心灵的计算理论的一种强有力的挑战。因此,对于支持计算主义的哲学家而言,框架问题是一个亟须解决的难题;但对于反对计算主义的哲学家,框架问题则成了为向其发难的一柄利剑。德雷福斯和惠勒拿起了这把利剑。

二 德雷福斯的人工智能批判

作为研究海德格尔的顶级专家,德雷福斯一直致力于将现象学资源带入到人工智能和认知科学的研究中。他最著名的工作是对符号主义人工智能的批判,尽管很多正统学者一开始对此不以为然,但他却由此开启了认知科学中的现象学传统,对后来的超脑认知浪潮影响深远。

海德格尔将现代技术视为西方形而上学的终点;同样,德雷福斯也认为人工智能代表了西方两千多年的形而上学传统的终点。在他看来,自苏格拉底和柏拉图以来,知识就被界定为一系列可以清晰定义的概念的集合,它们可以依据任何人都可理解的逻辑规则进行推理。并且,智力和理性是可以与身体、情感和欲望相分离的,这样,知识就成为一种脱离了身体和情境的抽象理念。这种认为知识可以根据明确的逻辑规则推理出来的观念,贯穿了从柏拉图到人工智能的漫长历史。[57]只不过柏拉图那里对概念的操作寻求的还是语义标准;而到了人工智能这里,就变成了对纯粹句法符号的操作,其最典型的体现就是物理符号系统假说。

在物理符号系统中,一切信息都被表达为离散的元素——二进制的字符串,一切语义信息最终都被还原到这种句法操作。物理符号系统假说在这个意义上等价于这种论断:一切智能行为最终都可以归结到对句法符号的机械操作。德雷福斯认为这种观点构成对人工智能的盲目的乐观主义假想。他将这种假想解析为四个层面:(1)生物学上的假想,即大脑在神经元层面实际上是以一种类似数字计算机的开关闭合的方式来加工离散信息;(2)心理学上的假想,即大脑是一种按照形式规则加工信息的符号处理装置;(3)认识论的假想,即一切知识都可以形式化为可以通过逻辑关系来表达的事实集合;(4)本体论的假想,即存在最终是离散的事实的集合,它们以特定的逻辑或数学规则组合起来。[58]德雷福斯认为,来自神经科学的越来越多的证据证明,神经元的开关模型是站不住脚的,因此生物学并没有获得它所期待的科学根基。而对于心理学假想、认识论假想和本体论假想,它们的共同之处在于,人必定是一种可以按照逻辑规则对原子事实做计算操作的符号装置。[59]

在德雷福斯看来,这种观点忽视了人类智力所依赖的情境(包括身体),而人类的大量常识就是建立在这些情境之上的。正是通过诉诸人类智能行为的情境特征,德雷福斯先后从常识问题(commonsense knowledge problem)和框架问题两个方面对人工智能发起了批判。

所谓常识问题,就是人工智能在表征人类常识的过程中所遇到的难题。常识是一个普通人在日常生活中所知道的一系列的事实和信息的集合。这些知识通常是以隐性知识(implicit knowledge)的形式存在的,但是对于计算机而言,一切知识都必须被清晰地表征,才能被计算机程序所把握。但因为常识是难以计数的,因此要将它们全部形式化从而表征出来,必将超过计算机的存储和计算负荷。根据德雷福斯的看法,这些常识往往包含了大量的情境特征;也就是说,它们在根本上并不关乎我们对世界的判断,而是关乎我们对世界的应对(coping)方式。对这些情境化的常识进行形式化,往往要涉及知识情境,而要对情境进行形式化,则是不可能的。比如,如果我们要对具体情境中的语言的实际使用,即语言操演(linguistic performance)进行形式化,那么就会遇到两个根本性的难题:首先,要得到语言操演的形式化理论是不可能的,因为这必须具有人类的全部知识;其次,并非所有的语言行为都具有规则。[60]对于后者而言,语言行为涉及了无规则的语用特征。一方面,一些具有句法或语义错误的语句,在某些语用情境中也能传达意义;另一方面,同样句法和语义的语句,在不同的情境下传达的却是不同的意义。这是因为特定的情境可以赋予语言意义,而对语言的形式化操作因为屏蔽了语言使用的情境,从而让语言的意义发生偏离甚至被消除。正是因为注意到了意义的这种情境依赖性,因此德雷福斯认为对知识和智力的纯粹句法的理解和模拟,根本不可能让人工智能获得真正的智能。那么,是否可以通过对情境的形式化,从而可以让句法符号捕捉到智能行为的全部意义呢?德雷福斯认为这会导致逻辑后退的悖论。如果我们想要模拟一个能动者的语言能力,那么不仅要要让机器具有语法和语义规则,还必须进一步具有这样一种规则,它能够让人或机器根据它来识别语境,即情境和讲话者的意图。但是为了说明如何运用这种规则,就必须诉诸另外的规则。如此一来,我们便会处于一种无限后退的状态中。[61]因此,关于日常常识的背景,我们在这种背景中如何应变的能力,都是无法被表征的,从而不能化约为纯粹的句法符号。德雷福斯由此认为,高级智能是不需要表征的。[62]在这个意义上,那种依靠机器的符号表征操作来模拟人类智能的想法,注定是要失败的。

德雷福斯的批判因此最终可以归结为,符号主义AI无法处理表征—行动任务中所涉及大量常识知识,这些常识通常是以人类情境的方式而存在的,而不能等同于句法描述。德雷福斯后来在《计算机不能做什么?》的修订版长篇序言中,进一步将他的批判做了概括:

很大程度上借用自维特根斯坦,我的论点是,无论什么时候按照规则对人类行为进行分析,这些规则总是必须包含一种ceteris paribus的条件;也就是说,它们是应用于“其他一切都等同”的情况,“其他一切”和“等同”意味着在任何特定的情境下,没有逻辑后退就不能将它们完全表述出来。[63]

也就是说,要澄清ceteris paribus的条件,就必须不断回溯到这些条件之所以成为可能的条件,从而导致无限的逻辑后退。最终我们会后退到日常实践活动,包括对我们是什么,在做什么这样的一些基本理解,而在德雷福斯看来,这些都是无法被形式化为一个可以指导 AI 行为的数据框架的。

在此,德雷福斯通过对常识问题的分析,实际上触及了人工智能的另一个难题即框架问题。虽然他在《计算机不能做什么?》中并未注意到框架问题,但他后来认识到,框架问题与他对经典AI的批判息息相关:

对我来说,更困难的问题不是存储这些数以百万计的事实,而是在任意给定的情境中,什么样的事实是相关的。这个相关问题的一个版本就是框架问题。如果计算机在运行一个对世界的现行状态的表征,这个世界的某些事物改变了,计算机程序如何决定它所表征的事实哪些可以被假定保持原样,哪些需要更新?[64]

根据惠勒的概括,德雷福斯对框架问题的分析分为三个部分:首先,正统表征叙事的表征建立策略无法处理整体论的语境;其次,我们对一个语境中的相关项的敏感的能力在正统表征叙事中是一种命题知识(knowledge-that),而它实际上是一种技能知识(knowledge-how);最后,将相关项分派给语境无涉的表征会导致一种无限的逻辑后退。这些观点实际上在德雷福斯对常识问题的分析中都已经涉及了,因此在他那里,常识问题是和框架问题息息相关的,对其中一个问题的解答总是关联着对另一个问题的解答。

在惠勒看来,德雷福斯对此所提出海德格尔式的解答策略,主要存在两个基点:首先,拒绝所有形式的表征主义,这就同时拒绝了去表征情境或将技能表征为一种命题知识的方法;其次,因为人类能动者被赋予了被抛(thrownness)的特征,总是嵌入某种有意义的语境中,就不需要将语境意义加诸于语境独立的表征基元之上。[65]所谓被抛,意味着此在(Dasein)总是具有了某种给定的内容和关切,总是处在一个限定的世界中,处在限定的实体的限定范围内。[66]也就是说,此在从根本上而言就是情境化的。德雷福斯正是从分析认知能动者的被抛特征入手,揭示了人类何以不会面临框架问题,而机器则并非如此。

在德雷福斯看来,“框架问题并不仅仅是一个问题,而是整个路径都发生了严重错误的信号。”[67]经典AI继承了笛卡儿主义的二元论假设,后者将心灵视为与身体不同的实体;而前者则认为心灵的句法操作是与其物质实现独立的。这就导致AI能缺乏体化性,从纯粹表征的路劲模拟智能行为必然导致失败。而从海德格尔主义的视角来看,人的存在方式是“在世界中存在”,在此在与世界打交道的过程中,一切用具并非以客体的方式呈现,而是处于“应手之物”的存在方式中。在这种状态中,我们无法有意识地反思并区分主体和客体,精确的表征是不存在的。只有当正常状态被打断的时候,当用具从“应手之物”变成“现手之物”,我们才会反思并表征我们使用的用具。从这种观点出发,经典AI基于表征的路径就错失了智能行为的源初状态。因此,德雷福斯认为,所有对智能的表征解释非但不能解决框架问题,而且本身就是问题的一部分,只有更加海德格尔主义的AI才能真正解决框架问题。

三 惠勒对框架问题的解答

德雷福斯通过诉诸能动者的被抛来解决框架问题,但这种进路如何机制化则成为一个有待研究的问题。[68]惠勒就认为,虽然这个路径是正确的,但还缺乏对这种被抛机制的说明。在他看来,如果要让人们清晰地理解对能动者的被抛现象学描述,就需要在亚能动的层面提供一种非神秘的因果机制。惠勒的工作正是要提供这种被抛机制的说明。他从情境机器人学那里获得了灵感。在他看来,情境机器人可以实时整合感觉与行动,从而避免经典认知科学中所需要的关于世界的详细的内部表征。因此,这种机器人的行为就不是表征引导的,而是由一套联合了神经机制、非神经身体因素和环境因素的专用自适应耦合系统引导的。在他看来,这种情境化的专用自适应耦合可以作为理解被抛机制的非神秘的因果过程,它作为一种亚能动的机制,最终引起了被抛的能动层面现象。[69]

惠勒重返了海德格尔对此在与事物遭遇(encounter)的三种方式:应手之物、现手之物和非应手之物(un-ready-to-hand)。在他看来,这三种遭遇方式提供了关于心灵、认知和智能的海德格尔进路理解的基础。[70]应手之物和现手之物的区分如上所述,主要在于是否存在主客二元论。在他看来,我们与设备的首要关系不是理论知识,而是能动者与世界不分主客的操作。惠勒又将这种应手状态称为平稳应对(smooth coping)。但当平稳应对被打断的时候,我们与世界的关系从操作关系转变为表征关系,这就产生了主体与客体的认知距离,这就是现手状态。这里最关键的是惠勒对第三种遭遇方式的分析。我们经常将现手之物等同于非应手之物,但在惠勒看来,二者存在着显著的区分。虽然在两种状态中,都存在着能动者对世界的表征,但非应手状态所涉及的表征是行动特异的、自我中心和内在地语境依赖的,而现手状态所表征到的则是一种科学的、理论的实体,是行动中立和语境无涉的。也就是说,非应手之物虽然同样源于应手状态被打断,但它仍然将自身展现为某种亟需行动的事物。惠勒因此也将非应手状态的实体称为实践客体(practical objects)。[71]

这三种遭遇方式分别是由三种亚能动机制所实现的,现手状态所对应的是传统的表征主义,而应手状态和非应手状态所对应的则分别是连续相互因果性(continuous reciprocal causation)和行动导向表征(action-oriented representations)。这两个术语是从克拉克那里借用的。所谓连续相互因果性,是指有机体并非是在被动地知觉世界;相反,“我们的行动可能在连续不断地响应着世间的事件,与此同时,世间的事件也在连续不断地响应着我们的行动。”[72]在惠勒看来,它涉及了多重同时交互和复杂的动态反馈循环,并且具有两个方面的特征:首先,“每个系统组份的因果贡献都部分地决定,同时也部分被决定于,大量其他系统组份的因果作用”;其次,“这些作用也许会随时间激烈地变化”。[73]而行动导向表征指的则是这样一种表征,它“同时描述世界的面貌,并指示可能的行动,它在作为纯粹的控制结构和作为消极的对外部实在的表征之间保持平衡。”[74]也就是说,行动导向的表征不止是在表征对象,而且还具有控制行动的功能。惠勒将这两种亚能动机制分别视为解决两种框架问题的策略。

惠勒将框架问题区分为语境内框架问题(intra-context frame problem)和语境间框架问题(inter-context frame problem)。前者指的是人工智能所面临的这样一种挑战,即“在一个语境之内,一个纯粹的机械系统如何可能获得恰当的、灵活的和流畅的行动”。后者则意指另一种挑战“当一个纯粹的机械系统在其所处的世界中需要不断适应新语境,并且这个世界的大量潜在语境还是不确定的时候,它如何可能获得恰当的、灵活的和流畅的行动。”在惠勒看来,通过一个可以产生行动导向表征的专用自适应耦合系统,可以抵消语境内框架问题,而语境间框架问题则可以被表现出连续相互因果性现象的系统所抵消。因为在一个特定的语境内,行动导向表征充分把握到了这个语境的特征,而连续相互因果性则可以对不断变化的语境具有高度的敏感性,具备这两种机制的系统,就避免机器对语境不敏感而导致的框架问题。[75]

于是,惠勒就通过对被抛机制的现象学分析,揭示了能动者与世界遭遇的三种方式,继而又将这三种方式与三种特定的认知机制关联起来。框架问题产生的缘由就是因为企图用现手状态下的认知机制去把握日常生活中更为普遍存在的应手之物和非应手之物,最终根本无法把握它们的语境特征,从而导致无法克服的智能障碍。而解决的根源就是回到应手状态和非应手状态所对应的认知机制上来,通过创造具有行动导向表征功能的系统,来解决语境内框架问题,用具有连续相互因果性的系统来消解语境间框架问题。

本章小结

框架问题揭示了认知主义尤其是符号范式人工智能所面临的知识表征困境,它意味着,基于符号逻辑的认知主义模型并非是我们建模人类认知系统的恰当模型。德雷福斯和惠勒基于相似的立场批判了传统人工智能,但他们对表征本身持有不同的态度,德雷福斯完全反对表征的观念,而惠勒则支持一种行动导向的表征观念。我们将在后文中继续探讨超脑认知对表征的看法。

本章所概述的这三个问题,实际上都揭示了人工智能领域中基于纯粹句法操作的形式符号系统无法完整地模拟人类的智能,因此,如果将人类智能刻画为一种图灵计算,将人类大脑等同于数字计算机的话,就无法捕捉到意识的最关键的特征,比如自主产生和理解语义的能力、表征动态变化的世界的能力,以及意识的最精微和神秘的直觉能力,等等。认知主义中的表征和计算两个观念需要更进一步的检视或更新,才能把握认知的更为丰富的内涵。在下一章中,我们将考察超脑认知对认知主义中的表征和计算的两个观念的批判。


[1].Gordana Dodig-Crnkovic,“Significance of Models of Computation, from Turing Model to Natural Computation”, Minds and Machines, Vol.21(2), 2011, pp.301-322.

[2].参见刘晓力《认知科学研究纲领的困境与走向》,《中国社会科学》2003年第1期。

[3].Allen Newell, John Calman Shaw and Herbert A.Simon,“Elements of a theory of human problem solving”, Psychological Review, Vol.65(3), 1958, pp.151-166.

[4].Allen Newell,“Physical symbol systems”, Cognitive Science, Vol.4(2), 1980, pp.135183.

[5].[美]司马贺:《人类的认知:思维的信息加工理论》,荆其诚、张厚粲译,科学出版社1986年版,第11页。

[6].Allen Newell,“Physical symbol systems”, Cognitive Science, Vol.4(2), 1980, pp.135183.

[7].Allen Newell and Herbert A.Simon, “Computer science as empirical inquiry: Symbols and search”, Communications of the ACM, vol.19(3), 1976, pp.113-126.

[8].[美]司马贺:《人类的认知:思维的信息加工理论》,荆其诚、张厚粲译,科学出版社1986年版,第13页。

[9].Nils J.Nilsson,“The Physical Symbol System Hypothesis: Status and Prospects”, Max Lungarella, Fumiya Iida, Josh Bongard, and Rolf Pfeifer eds., 50 Years of Artificial Intelligence, Springer Berlin Heidelberg, 2007, pp.9-17.

[10].句法是支配句子结构的一整套规则、原理和过程,语义则是一个指号、词语或句子的意义。我们在本书中用句法符号指称未奠基的受句法约束的符号;也就是说,它只受句法规则的支配,但本身却是没有语义的,最终需要外部观察者的指派才能获取语义。

[11].J.R.Lucas,“Minds, Machines and Gödel”, Philosophy, Vol.36(137), 1961, pp.112127.

[12].[英]罗杰·彭罗斯:《皇帝新脑:有关电脑、人脑及物理定律》,许明贤、吴忠超译,湖南科学技术出版社1995年版。

[13].Hubert L.Dreyfus,“Why Heideggerian AI Failed and How Fixing It Would Require Making It More Heideggerian”, Artificial Intelligence, Vol.171(18), 2007, pp.1137-1160.

[14].[美]丽贝卡·戈德斯坦:《不完备性:哥德尔的证明和悖论》,湖南科学技术出版社2008年版,第90—92页。

[15].[法]郑春顺:《混沌与和谐:现实世界的创造》,马世元译,商务印书馆2002年版,第444页。

[16].J.R.Lucas,“Minds, Machines and Gödel”, Philosophy, Vol.36(137), 1961, pp.112127.

[17].[美]约翰·塞尔:《意识的奥秘》,南京大学出版社2009年版,第39—40页。

[18].[英]艾伦·图灵:《计算机器与智能》,《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2006年版,第53页。

[19].[美]约翰·塞尔:《心灵、大脑与程序》,《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2006年版,第73—95页。

[20].John R.Searle,“Is the Brain's Mind a Computer Program”,Scientific American, vol.262(1), 1990, pp.26-31.

[21].[美]约翰·塞尔:《心灵导论》,徐英瑾译,上海人民出版社2008年版,第167—168页。

[22].Stevan Harnad, “The Symbol Grounding Problem”, Physica D: Nonlinear Phenomena, Vol.42(1), 1990, pp.335-346.

[23].Stevan Harnad,“The Symbol Grounding Problem”, Physica D: Nonlinear Phenomena, Vol.42 (1), 1990, pp.335-346.

[24].Stevan Harnad,“The Symbol Grounding Problem”,Physica D: Nonlinear Phenomena, Vol.42 (1), 1990, pp.335-346.

[25].Silvia Coradeschi and Alessandro Saffiotti,“An introduction to the anchoring problem”, Robotics and Autonomous Systems, Vol.43(2-3), 2003, pp.85-96.

[26].Mariarosaria Taddeo and Luciano Floridi,“Solving the symbol grounding problem: a critical review of fifteen years of research”, Journal of Experimental & Theoretical Artificial Intelligence, Vol.17 (4), 2005, pp.419-445.

[27].Tom Ziemke,“Rethinking Grounding”, in Alexander Riegler et al.eds., Understanding Representation in the Cognitive Sciences, Springer US, 1999, pp.177-190.

[28].David J.Chalmers,“Subsymbolic Computation and the Chinese Room”, J.Dinsmore eds., The Symbolic and Connectionist Paradigms: Closing the Gap, Lawrence Erlbaum, 1992, pp.25-48.

[29].Stuart A.Jackson and Noel E.Sharkey,“Grounding Computational Engines”, Artificial Intelligence Review, Vol.10(1-2), 1996, pp.65-82.

[30].Mariarosaria Taddeo and Luciano Floridi,“Solving the symbol grounding problem: a critical review of fifteen years of research”, Journal of Experimental & Theoretical Artificial Intelligence, Vol.17 (4), 2005, pp.419-445.

[31].Mariarosaria Taddeo and Luciano Floridi,“Solving the symbol grounding problem: a critical review of fifteen years of research”, Journal of Experimental & Theoretical Artificial Intelligence, Vol.17 (4), 2005, pp.419-445.

[32].Rodney A.Brooks,“Elephants don't play chess”, Robotics and Autonomous Systems, Vol.6 (1-2), 1990, pp.3-15.

[33].Rodney A.Brooks, “Intelligence Without Reason”, Proceedings of the Twelfth International Joint Conference on Artificial Intelligence(IJCAI-91).San Mateo, CA: Morgan Kauffmann, 1991, pp.569-595.

[34].Rodney A.Brooks,“Intelligence without representation”, Artificial Intelligence, Vol.47(1), 1991, pp.139-159.

[35].Mariarosaria Taddeo and Luciano Floridi,“Solving the symbol grounding problem: a critical review of fifteen years of research”, Journal of Experimental & Theoretical Artificial Intelligence, Vol.17 (4), 2005, pp.419-445.

[36].Tom Ziemke,“Rethinking Grounding”,Alexander Riegler et al.eds., Understanding Representation in the Cognitive Sciences, Springer US, 1999, pp.177-190.

[37].James H.Fetzer, Artificial Intelligence: Its Scope and Limits, Kluwer, 1990, p.31.

[38].弗洛里迪提出了一种基于行动的语义学,用以解决SGP。这个路径在某种意义上也可以视为对符号主义与具身路径两种策略的综合。我们将在下文中对此进行讨论。See Mariarosaria Taddeo and Luciano Floridi,“A Praxical Solution of the Symbol Grounding Problem”, Minds and Machines, Vol.17(4), 2007, pp.369-389.

[39].Paul Vogt, “Anchoring of semiotic symbols”, Robotics and Autonomous Systems, Vol.43, 2003, pp.109-120.

[40].Paul Vogt, “The physical symbol grounding problem”, Cognitive Systems Research, Vol.3 (3), 2002, pp.429-457.

[41].Luc Steels and Paul Vogt,“Grounding Adaptive Language Games in Robotic Agents”, Proceedings of the Fourth European Conference on Artificial Life, MIT Press, 1997, pp.474-482.

[42].Luc Steels,“The Symbol Grounding Problem Has Been Solved.So What's Next”, Manuel de Vegaet al.(eds.), Symbols and Embodiment: Debates on Meaning and Cognition, Oxford University Press, 2008, pp.223-244.

[43].Morten H.Christiansen and Nick Chater,“Symbol Grounding: The Emperor's New Theory of Meaning?”, Proceedings of the 15th Annual Conference of the Cognitive Science,Society University of Colorado, 1993, pp.155-160.

[44].Mariarosaria Taddeo and Luciano Floridi,“A Praxical Solution of the Symbol Grounding Problem”, Minds and Machines, Vol.17(4), 2007, pp.369-389.

[45].对AbS的详细批驳,see Krystyna Bielecka,“Why Taddeo and Floridi Did Not Solve the Symbol Grounding Problem”, Journal of Experimental & Theoretical Artificial Intelligence, Vol.27(1), 2015, pp.79-93.

[46].参见田平《自然化的心灵》,湖南教育出版社,第226—233页。

[47].Fred Dretske,“Misrepresentation”, R.Bogdan eds., Belief: Form, Content, and Function, Oxford University Press, 1986, pp.17-36.

[48].John McCarthy and Patrick Hayes,“Some Philosophical Problems From the Standpoint of Artificial Intelligence”, B.Meltzer and Donald Michie eds., Machine Intelligence 4, Edinburgh University Press, 1969, pp.463-502.

[49].Murray Shanahan,“The Frame Problem”, The Stanford Encyclopedia of Philosophy(Winter 2009 Edition), Edward N.Zalta(ed.), URL = <http: //plato.stanford.edu/archives/win2009/entries/frame-problem/ >.

[50].Murray Shanahan,“The Frame Problem”, The Stanford Encyclopedia of Philosophy(Winter 2009 Edition), Edward N.Zalta(ed.), URL = <http: //plato.stanford.edu/archives/win2009/entries/frame-problem/ >.

[51].参见徐英瑾《一个维特根斯坦主义者眼中的框架问题》,《逻辑学研究》2011年第2期。

[52].[美]丹尼尔·丹尼特:《认知之轮:人工智能的框架问题》,《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2006年版,第157页。

[53].[美]福多:《心理模块性》,李丽译,华东师范大学出版社2002年版,第108—112页。

[54].Murray Shanahan,“The Frame Problem”, The Stanford Encyclopedia of Philosophy(Winter 2009 Edition), Edward N.Zalta(ed.), URL = <http: //plato.stanford.edu/archives/win2009/entries/frame-problem/ >.

[55].Larry J.Crockett, The Turing Test and the Frame Problem, Intellect Ltd., 1994, p.70.

[56].Michael Wheeler, Reconstructing the cognitive world: The next step, MIT Press, 2005, p.178.

[57].Hubert L.Dreyfus and Stuart E.Dreyfus,“Making a Mind Versus Modelling the Brain: Artificial Intelligence Back at the Branchpoint”, Understanding the Artificial: On the Future Shape of Artificial Intelligence, Springer London, 1991, pp.33-54.

[58].[美]休伯特·德雷福斯:《计算机不能做什么?》,宁春岩译,生活·读书·新知三联书店1986年版,第166页。

[59].[美]休伯特·德雷福斯:《计算机不能做什么?》,宁春岩译,生活·读书·新知三联书店1986年版,第239页。

[60].Hubert L.Dreyfus, What Computers Can't Do: The Limits of Artificial Intelligence, Harpercollins, 1978, p.110.

[61].Hubert L.Dreyfus, What Computers Can't Do: The Limits of Artificial Intelligence, Harpercollins, 1978, p.115.

[62].Hubert L.Dreyfus,“Intelligence Without Representation: Merleau-Ponty's Critique of Mental Representation the Relevance of Phenomenology to Scientific Explanation”, Phenomenology and the Cognitive Sciences, Vol.1(4), 2002, pp.367-383.

[63].Hubert L.Dreyfus, What Computers Still Can't Do: A Critique of Artificial Reason, MIT Press, 1992, pp.56-57.

[64].Hubert L.Dreyfus,“Why Heideggerian AI Failed and How Fixing It Would Require Making It More Heideggerian”, Artificial Intelligence, Vol.171(18), 2007, pp.1137-1160.

[65].Michael Wheeler, “Cognition in Context: Phenomenology, Situated Robotics and the Frame Problem”, International Journal of Philosophical Studies, Vol.16(3), 2008, pp.323-349.

[66].Hubert L.Dreyfus, Being-in-the-world: A commentary on Heidegger's Being and Time, Division I, MIT Press, 1991, pp.299-300.

[67].Hubert L.Dreyfus,“Why Heideggerian AI Failed and How Fixing It Would Require Making It More Heideggerian”, Artificial Intelligence, Vol.171(18), 2007, pp.1137-1160.

[68].参见魏屹东、常照强《框架问题的机制化实现与具身化进路——表征主义和反表征主义的困境与出路》,《自然辩证法研究》2011年第3期。

[69].Michael Wheeler, “Cognition in Context: Phenomenology, Situated Robotics and the Frame Problem”, International Journal of Philosophical Studies, Vol.16(3), 2008, pp.323-349.

[70].Michael Wheeler, Reconstructing the cognitive world: The next step, MIT Press, 2005, p.18.

[71].Michael Wheeler, Reconstructing the cognitive world: The next step, MIT Press, 2005, p.139.

[72].Andy Clark, Being there: Putting Brain, Body, and World Together Again, MIT Press, 1997, p.171.

[73].Michael Wheeler, Reconstructing the Cognitive World: The Next Step, MIT Press, 2005, p.260.

[74].Andy Clark, Being There: Putting Brain, Body, and World Together Again, MIT Press, 1997, p.49.

[75].在此,我们也可以看到惠勒与德雷福斯在解决框架问题上的分歧。德雷福斯完全回避了表征,因此他称惠勒对行动导向的表征的主张为伪海德格尔主义,而惠勒则认为并非所有形式的表征都会引入框架问题。