三 人工智能哲学的发展现状
前文已提到,“人工智能哲学”在西方往往被视为心灵哲学(philo-sophy of mind)的分支,尽管其和科学哲学也有交叉。至于西方学界之所以更习惯于将其归结到心灵哲学的名目下,则主要缘于如下两个原因:第一,既然AI研究的目标,乃是在计算机技术上的平台上模拟人类智能的种种行为,那么,作为对于AI的高阶反思,人工智能哲学也就不得不对“智能”的本性(乃至“心智”的本性)进行哲学探讨。很显然,这种探讨就会在相当程度上使得我们涉入心灵哲学的传统领地;第二,心灵哲学中的某些学术流派——如“机器状态功能主义”(machine-state-functionalism)——在表达上本来就借鉴了AI科学(或者广义上的计算机科学)的话语方式(按照此派的观点,人类的心智在实质上就可以被视为一台被恰当编程的万能图灵机,或是一系列机械功能的汇集)。从这个角度看,AI的思维方式甚至可以说是对心灵哲学构成了某种主动的“反哺”,而不仅仅是后者反思的客体。
但正所谓“成也萧何,败也萧何”。将人工智能哲学视为心灵哲学之子课题的做法,固然使得前者搭着“心灵哲学”这一显学的顺风车而得到了学界广泛的关注,但是,心灵哲学自身的问题框架和兴趣导向,也使得人工智能哲学所本该有的工程学面相被压抑,并使得其形而上学面相被片面凸显。以哲学家塞尔(John Searle)在其著名论文《心灵、大脑与程序》中所提出的“汉字屋思想实验”为例。[7]
塞尔先从术语厘定的角度区分了两个概念,第一是“强人工智能”(强AI):这种观点认为,计算机不仅仅是人们用来研究心灵的一种工具,而且,被恰当编程的计算机本身就是一个心灵。第二则是“弱人工智能”(弱AI),其想法是:计算机至多只能够成为人们研究心灵的一种工具,或是对心智活动的一种抽象模拟。在这两种立场之间,塞尔支持的是弱AI,反对的是强AI。具体而言,塞尔是通过一个诉诸常识的论证来反对强AI论题的:
需要注意的是,这个论证本身并不直接就是我们所要说的“汉字屋论证”,因为后者只是它的一个隶属论证,其辩护对象乃是“这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取”这个小前提(顺便说一句,塞尔认为此三段论的大前提的真是毫无争议的)。具体而言,“汉字屋论证”在实质上乃是这样一个“思想实验”:
假设一个说英语的被试被关在一个房间内,他与一个屋外的检测者通过彼此传递字条来交流。现在已知:
在以上这五个条件被给定的情况下,再假设被试的确通过了“汉语语言测试”——也就是说,测试者的确无法辨识被试的言语行为与一个真正懂汉语者的言语行为之间的差别——那么,被试是否就真的因此懂得了汉语呢?塞尔认为答案显然是否定的,因为被试在“汉字屋”中所做的,只是在根据规则书机械地搬运符号而已。他根本无法将任何一个汉语表达式独立翻译成英语。
那么,汉字屋论证与强AI之间关系是什么呢?前者怎么就能够为“任何一台被恰当编程的计算机无法获得语义关系”这个命题提供辩护呢?
概言之,在塞尔看来,“汉字屋系统”(Chinese Room System)中的规则书就对应于计算机的程序,被试就对应于计算机中的中央微处理器(CPU),每一个被递送进来的问题就对应于计算机的“输入”,每一个被递送出去的答案就对应于计算机的“输出”。在这样的情况下,就像一个能够恰当应答所有汉语问题的被试依然无法建立针对任何一个汉语表达式的语义关系一样,一台计算机即使能够恰当地应答出所有的用人类语言提出的问题,它也无法建立针对任何一个人类语言表达式的语义关系。其道理似乎也很简单:被试与CPU实际上只能做同一种性质的工作——根据纯粹句法性质的规则,机械地搬运符号。
不难看来,整个汉字屋论证可以被视为对于“图灵测试”(Turing 1950)所做的某种颠倒:在图灵看来,只要检测者无法在言语行为方面找出一台机器与一个人之间的差别,我们就能够将“智能”赋予机器;而在塞尔看来,即使我们没有找到这种差别,机器依然是无心的,因为它依然缺乏建立恰当语义关系的能力。从这个角度看,只要人工智能的专家们按照“程序设计”这种“图灵冯·诺伊曼模式”模式来制造计算机,强AI就永远不会实现。
西方学界对于塞尔的这个论证的反驳,大致采用了两条思路。第一条思路是:汉字屋中的人只要能够通过“汉语测试”,那么在屋外人眼中,他就算懂汉语了——换言之,他所具有的“我不懂汉语”这个主观直觉并非用以评判他是否懂汉语的标准(这就是对于汉字屋论证的“他心应答”。请参看前面提到的论文《心灵、大脑与程序》中的“答辩”部分);第二条思路是:纵然汉字屋中的人不懂汉语,但是如若我们再在这个被试之外增添一些要素,我们就能够由此整合出一个能理解汉语的“能动者”(agent)来。比如,包含被试在内的整个汉字屋系统就是懂汉语的(这就是对于汉字屋论证的“系统应答”。出处同上);或者,若为CPU配上感觉资料接收装置与行走装置,由此构成的机器人就能够建立起汉字符号与外部世界之间的语义关系,并由此学会汉语(这就是对于汉字屋论证的“机器人应答”)。
但笔者认为,上述关于汉字屋思想实验的思辨实在是过于脱离目前AI发展的现实了,因为完全能够像人类那样灵活、精准地处理汉字信息的AI系统,目前远远没有被开发出来。换言之,现在的AI研究需要的来自哲学界的思想支援,乃是对于如下问题的指导:“如何造出能够灵活处理人类语言信息的机器”;而非对于这一问题的讨论:“在这样的机器已经被造出来的前提下,它算不算是真正具有心灵。”换言之,在搁置前一个问题的前提下就去匆忙讨论后一个问题,其实是一种理智上的僭越,就好比说一个投资家在没有确定自己投资是否盈利的情况下,就急于讨论“巨额的财富是否是一种人生负担”,乃是一种理智上的僭越一样。
当然,这也并不是说,西方学界在“人工智能哲学”名目下所进行的研究,都像塞尔的研究那样脱离AI研究的实际。实际上,丹尼特(Daniel Dennett)对于“框架问题”的讨论[8]、丘奇兰德(Paul Church-land)对基于神经模拟的认知模型的讨论[9],福多(Jerry Fodor)与麦克劳林(Brian P.McLaughlin)等对联结主义的批评[10],以及波洛克(John Pollack)联系认识论研究与人工智能逻辑的工作[11],都要比塞尔的工作更多地涉及AI研究的技术细节。然而,以上这些研究的主体,都是在20世纪就都已经完成了。而就最近一段时间国际哲学界的发展状况而言,人工智能哲学已经不再是讨论的热点(关于人工智能的应用伦理学问题除外,不过此类讨论一向被视为衍生性的哲学问题)。与之相对照,最近一波世界性的人工智能浪潮,却是由2015年美国谷歌的下棋程序“Alpha Go”的卓越表现所带来的。换言之,就英语世界的情况而言,人工智能哲学最热络的时间(即20世纪最后二十年),其实是将人工智能在商业与媒体领域中的热度提前了约二十年。不过,这一点反过来也就导致了在“人工智能”成为社会热词的今天,英语哲学界对这一热点的知识供给反而略显不足。
那么,这一“供给不足”的问题之所以会出现,原因究竟是什么呢?笔者认为有三点。
第一,与公众的理解不同,实际上最近十年来AI的发展,主要是基于深度学习技术的进步的。而与在20世纪80年代就已经成熟的联结主义技术相比,深度学习技术只是在模型结构与所处理的数据量方面有了长足的进步,在基本的科学框架方面,其进步却相对有限(请参看本书第三讲对该问题的详细讲解)。但哲学家往往对科学与工程学领域内的范式革命更感兴趣,而不会对一种既有技术的迭代与拓展抱有太大兴趣。这种情况进一步拖慢了整个人工智能哲学界对于人工智能科学的理解框架的更新速率。
第二,像丹尼特、丘奇兰德、波洛克等能够对AI的技术细节问题发言的老一辈哲学学者,目前很多已经迈入晚年(个别已经过世),而在更年轻的学者中,此类跨学科人才供给亦相对不足。这也就造成了人工智能哲学事业的后继作者群在数量上的不足。
第三,由于匿名审稿制导致的“内卷化效应”[12],最近几十年分析哲学的发展出现了过于学院化的倾向,这对具有跨学科色彩的人工智能哲学的发展是不利的。具体而言,目前在西方主要刊登人工智能哲学论文的旗舰杂志阵地乃是《心灵与机器》(Minds and Machines),但该杂志在西方的学术等级是比不上诸如《心灵》(Mind)、《努斯》(Nous)、《哲学与现象学研究》(Philosophy and Phenomenological Research)等主流的分析哲学刊物,而且为该杂志投稿的作者,也以对哲学感兴趣的人工智能专家居多,而非以对人工智能感兴趣的哲学家居多。这也就是说,人工智能哲学的发展,目前比较缺乏行业内部的相关评价标准的支撑。
有鉴于此,本书对于AI问题的讨论,将规避那种塞尔式的“空对空”讨论,而聚焦于对AI自身的技术前提的追问。具体而言,本书的讨论将分为两大部分。第一讲到第九讲为“上篇”,该部分将聚焦于对于主流AI技术的批判性讨论;而第十讲到第十五讲为“下篇”,该部分将为“我们将如何做出更好的AI”这一问题提供建设性的倡议。与传统哲学所擅长的宏观讨论与传统工程学研究所擅长的微观讨论相比,本书的讨论风格毋宁说是“中观”的,也就是说,本书的讨论将在哲学的讨论中夹杂入不少认知科学、语言学与计算机科学史的内容,以此故意淡化先验的思辨与经验内容之间的界限。另一方面,本书的讨论依然将保持对于特别琐碎的技术细节的某种疏离感,以维持哲学研究的某些基本特色。
在下一讲中,我将接着本讲的话头,来深入讨论为何现代的主流哲学教育,甚至是貌似在精神上最接近于AI的英美分析哲学教育,已经跟不上AI发展的大形势了。我将聚焦于“现代逻辑”这一现代西方哲学教育的核心板块来展开讨论。