美梦还是噩梦
——关于“人工智能”的哲学遐想
杨熙龄
计算机早已能模拟人的一部分“智能”,但在将来,计算机的“智能”能否提高到类似人智的水平,或者说,科学能否使一台“非人”的机器产生“人一样的智能”?对于这个问题,西方曾出现过所谓乐观派和悲观派这两种相反的见解。乐观派认为计算机能模拟人的智能,他们和18世纪的法国哲学家拉·梅特里一样,认为“人是机器”,人脑也不过是一台复杂的计算机;计算机的局限性,也是人智的局限性;计算机能够、应该而且将会做人能做的一切。悲观派则认为人的智能远非计算机所能企及,计算机永不可能达到人的智能水平。但近几年来,却又出现了另一种乐观和悲观的对立,双方都以机器思维最终将能够与人智并驾齐驱这一假设为前提,尽管这个假设的可信程度还低。
为什么一个同样的设想会造成两种完全相反的梦境——美梦和噩梦呢?因为如果机器能和人一样“思维”,那可了不得;机器能和人一样“思维”,那可不得了!认为“了不得”的,就进入美梦;认为“不得了”的呢,自然做起噩梦来了。
可是,别忘了,无论美梦噩梦,都仅仅是梦而已。西方的科学或“理智”能否摆脱自己造成的这些梦境呢?它至今还未能脱离这种梦境。问题的讨论实际上是围绕一些矛盾现象展开的。因此,对问题的说明似也应从说明矛盾入手。
什么矛盾呢?人们早已发现,“人工智能”这个名称就是一个oxymoron,即一个自相矛盾的词。人工智能,或机器思维,这些概念本身是矛盾的。正如“机械手”这个名词。用机械构成的“手”,只能是起重机、吊车一类东西的发展或精巧化,它至多具有人手或人臂的某些功能罢了,能叫作“手”么?能推理的电子计算机,怎么能叫作“脑”?“电脑”既是“人工”制造物,也就不会是“智能”;如是“智能”,则只能属于人脑。不过,固然是矛盾,但又是活生生的事实。无论“机械手”或“电脑”这些“矛盾词”,又显然有其正确反映事实的一面。即使我们不使用“电脑”这类通俗名称,但矛盾的事实仍存在。
人工智能研究的科学实践逐步暴露了自己理论中的一大堆矛盾。这些矛盾,在有的哲学家眼里,渐渐成为不可解的问题,最后就怀疑到西方科学迄今深信不疑的、渊源于莱布尼茨的所谓“理智原则”了。
曾被人挖苦地叫作“人工知识分子”或“人工知识分子阶层”(Artificial Intelligentsia)的“人工智能”技术专家们却不理睬这些矛盾,他们就像歌德的诗剧《浮士德》中,浮士德的门徒瓦格纳在实验室中焦头烂额地制造“人造人”何蒙古鲁士一般,埋头制造“人工智能”。他们中的有些人说:“让哲学家们去吵闹,我们研究我们的!”有些学者(例如英国的提摩太·克拉克)认为,这些人工智能技术专家中间流行着某种形态的实用主义思想,因为他们的某些技术越来越带上“试试看”或者叫作“试错法”(trial and error)的性质。但这类人工智能的技术专家们,如果被称为“乐观派”,自有其乐观的根据,他们也有理论,而且并非“实用主义”一语所能概括,至少拉·梅特里的“人是机器”就是一条并非实用主义的理论,而大家公认,流传了200多年的这条理论,还并没有被证明为谬论。如果说,某些技术专家在做“美梦”,则这种梦境也不是无缘无故地出现的。
可是,不少哲学家却是新的悲观派。他们接受了乐观派的一个设想:人工智能或机器思维将来终能同人类思维或人类智能相媲美。但是他们从概念上分析并得出了悲观的结论:如果这样,那可“不得了”。
法国哲学家德里达(Derrida)近年来提出了一种“人智模拟”(mimesis)的学说,姑且把它叫作“模拟论”。他说,“模拟”这个概念是一个“坏概念”。为什么是个“坏概念”呢?
“模拟”就是仿照某一“原物”制作一个“模拟物”;而模拟物能做到“像”原物,是因为它还“不像”原物;如果它与原物百分之百“像”了,那就不再存在“像”的问题,因为这样它已不成其为“模拟物”,而成为一个与原物属于同一类的“原物”了。模拟物之“不像”原物,则又因为它有点“像”原物。
德里达认为,“模拟”所以能出现,是因为它“先天地”依赖它自身的缺陷(不能够像原物),无此缺陷,它就不能存在。依靠自身缺陷才能存在的事物,当然是“坏”的。不过,它也有“好”的一面,但德里达说,“它之所以好,就是由于它坏”。
我们可以不同意“模拟”是个“坏概念”这种见解,但德里达看到了矛盾,这还是值得注意的。
德里达认为,假设一台机器在一切方面都具备和人智类似的智能,则它将不再仅仅是人智的“模拟物”,而将成为一种“智能”。原来被它模拟的人脑呢,则由于已出现了和它具有同等功能的机器,而失去了自己的“独一性”,即唯一具有智能之物的地位,不能再独占“智慧”的称号。德里达说,模拟物的“智能”一旦与被模拟者(人的智能)完全一样或水平相当时,人的智能或智慧将失去其本质的独特性或其特有本质。“人在镜殿中失去他自己。”人的本质将会被忘记。犹如临摹一幅画,临摹得和唯一的原画完全一模一样,到了“乱真”的地步,假定如此,则原画和复制品弄得无法区分,则那幅原画实际上等于“失踪”,或至少失去其原来的“独一无二”的价值。
因此,德里达和其他一些哲学家(也有一些人工智能专家)担忧一旦出现酷似人智(且不说超过人智)的“人工智能”,人类将把自己放在什么地位。他们料想,在那种情势下,人将遭到排斥和剥削。
有些学者和科学家并不是像德里达这样从哲学上分析种种有关的概念,而是根据他们从事人工智能研究的实践所得到的丰富经验,得出了类似的见解。约瑟夫·魏泽堡(Joseph Weizenbaum)就是这样一位学者。
约瑟夫·魏泽堡是最早在人工智能研究领域取得实际成就的学者之一。闻名的“艾丽莎程序”,就是他的巧妙创造,据说这是第一个能与人用自然语言(英语)对话的计算机程序。
“艾丽莎程序”(“艾丽莎”之名来自萧伯纳的剧本《卖花女》)是一位“机器大夫”,这种机器(程序)担任一个心理治疗医生的角色,与“她”对话的人,可以作为接受心理治疗的“病人”第一次求诊。所以这个程序也叫作“大夫”。
下面是一位“女病人”去找这位“机器大夫”时同机器的一小段“对话”(病人通过打字机把话输入机器,机器回答的话也通过打字机输出给病人):
女孩:男人都是一个样。
机器:这是怎说的呢?
女孩:他们总是这样那样惹人厌烦。
机器:你能说个具体例子吗?
女孩:嗯,我的男朋友叫我来找你。
机器:你的男朋友叫你来找我?
女孩:他说我最近精神萎靡不振。
机器:听你说萎靡不振,我很难受。
女孩:真的,我心里不痛快。
机器:你以为来这儿就能帮助你,使你不再不痛快?
女孩:我需要点帮助,这是肯定的。
机器:如果你得到点帮助,对你怎样呢?
女孩:那样也许我能同我妈一起过得好一些。
机器:再讲点关于你家庭的情况。
女孩:我妈是关心我的。
机器:你家还有谁关心你?
女孩:我爸。
机器:你爸?
女孩:你倒有点像我爸。
机器:怎么像?
女孩:你这人不嚣张,但我想你是有意不让我觉得。
机器:你为什么认为我不嚣张?
女孩:你不跟我抬杠。
机器:你凭什么说我不跟你抬杠?
女孩:你怕我。
机器:你以为我怕你,这就使你高兴?
女孩:我爸怕所有人。
机器:当你一想到你爸的时候,还想起些什么?
女孩:废话。
机器:这同你的男朋友叫你来此有何关系?
在追求时髦和善于起哄再加轻信的美国社会,这个“大夫”程序当年在麻省理工学院一出现,就引起了轰动。有许多医院当局硬是认为需采用这种程序来顶替真的大夫,因为心理治疗大夫为数太少,忙不过来。甚至有的病人表示宁愿要这种机器大夫,而不要真的大夫给他们进行心理治疗。许多曾同这位“机器大夫”对话过的人更是认为“她”具有“智能”。甚至魏泽堡教授本人的一位女助手也如此,她同这台机器对话时不知说了些什么“私房话”。一天魏泽堡想检查一下这个“程序”在前一段时间内曾做过些什么对话时,这位女助手忽然竭力反对,说这样做是有意要知道别人的“阴私”。可是这位女助手又明明知道这个程序是如何编成的。
于是,魏泽堡一再声明他所编制的这个“大夫”程序,并不真正“理解”求诊者们的思想,希望大家不要当真。这个程序是一种既巧妙而又简单的设计。它会按规则首先抓住同它对话者的语句中的一个或几个“关键性”词,然后又用一定的词作为那几个“关键性词”的反应。此外当然还能按规则把对方话中的“你”变成“我”,“你的”变成“我的”等等,构成句子,作为回答,发给对方。
例如,对话者说“你是傻子”,机器就回答“我是傻子”,也许再按规则加上惊叹号或问号。再如求诊者说“我恨冰淇淋”,机器就回答“恨总归不好”。它一遇到“恨”字,总是这么回答。当然,“艾丽莎程序”掌握相当大数量的词汇,并有一套巧妙的规则。
假固然是假的,但是从一定角度看,“艾丽莎程序”又的确在较低程度上“学到了”人们在对话时的某些真实规律。例如,魏泽堡自己承认,这个程序的意义是强调了“上下文对语言理解的重要性”,抓住对方话语中的“关键”词,把“我”变成“你”、把“你”变成“我”等等这些规则,可以说已经在低水平上反映了人的对话智能。
人工智能的科学实践,据说就像追逐一个逃遁着的目标。这个目标一旦达到,立刻又飞走了。因为当每次人们编成一种程序,能完成本来需要人的智能才能完成的任务时,人们当然已经明白这个程序是如何工作的。这种程序往往是循序渐进,简单明了,似乎并不像人的头脑活动那么“复杂”,虽然这种程序能顶替人的部分智能,能很好完成一定的任务,但也就降低到一种仅仅是“自动化”水平的设计成果,而不被看作“智能”了。因此,怎样才算“智能”,标准很难定。有的人说,够得上“智能”的程序不但要能“哄得过”一般使用者,还需要能“哄过”程序的设计者。这种例子倒真有过,如A.L.萨缪尔设计的一个下跳棋的程序,曾把作者自己打败了。但萨缪尔却用这个程序来说明机器不可能具有智能。
什么是机器“智能”的标准?图灵很早(1950年)就提出了一个判断某一机器程序够得上够不上“智能”之称的标准,那就是“图灵测验”。这个测验的办法是:参与者共为三方:(1)一台被测试的机器;(2)一个人;(3)向上述两方提问题并作出判断的人。三方面都不准直接“见面”,而是用“匣子”方式隔离开来。测验开始后,第三方,即测试主持者,向(1)(2)方提出问题,然后由(1)(2)方回答问题,最后由第三方判断(1)(2)两方中哪一方是机器。(1)(2)方必须尽全力使测试者相信自己是人,而不是机器。如果最后测试者无法正确判定(1)(2)方何方是机器,则这台受测验的机器就算作“够得上”具有“智能”的标准。对于这种测验,也有人认为有问题。例如,测验者本人的智力水平如何,再者,那第(2)方即真的人可以有意使自己的“智能”表现呆笨,伪装“机器”,但这已违反图灵的规定。一般认为这个测验方法是合理的。其特点是只凭被测双方的“输出”来判断是否具备人的智能,而不管被测者是如何达到这种“智能”水平的。
那么,按这种标准,像“艾丽莎程序”这种比较简单的机器智能也已经能够通过某种有限的、要求较低的“图灵测验”了,即在一定意义上可算作有“智能”的。如果我们认为,在80年代中期的今天,较“艾丽莎程序”更“高明”的程序也已纷纷出现,“艾丽莎”一类较简单、较老的程序早已毫无价值,则又不然。据迈克·詹姆斯说,“艾丽莎”在今天,仍然被普遍当作计算机智能的一个范例而存在着,“她”还未成为一个历史的陈迹,公众(包括许多计算机科学家在内)仍常常被“她”哄过。
“艾丽莎程序”所引起的反应,使得这个程序的创造者魏泽堡深感不安。他说他只懂得计算机科学和人工智能(计算机科学属下的一个部门)方面的事,他不是哲学家。但他根据科学实践的经验提出的一些见解很接近一些哲学家的看法。他说:
人工智能这个新的领域中,必须展开讨论。最终必须在人的智能和机器智能之间划出一条界线。如果没有这样一条界线,那么,那些主张用计算机来代替心理治疗大夫的人们,还只是一个未来时代的预报者,到了那个时代,人终于会被仅仅当作是钟表一类的东西。……人把自主权交给了一个机器世界;这种普遍的意义可是值得深入考虑了。……而且,计算机仅仅是一种更普遍得多的现象中的一个特殊例子……今天,当我们比如说起一所大学,或几乎任何别的社会政治结构,我们面前显现的形象往往就是一个自动机似的过程。(见《计算机的力量和人类的理性》一书,第8—10页)
魏泽堡的一些见解,正如人们已指出的,颇有一些自相矛盾之处。他认为计算机不可能模拟人的许多智能,例如不能具备人的感情;有些“活的真理”,也不是计算机所能获得的。但他又说过他可以承认某类高级计算机系统已经很像“有机体”,甚至“活的生物”。他也认为没法划定计算机能力的上限。但是他始终坚持,不管计算机能否做到人能做的某些智力活动,决不应当让计算机去做这类工作,例如让计算机做法官、做医生等等。他认为这是个“应该不应该”的伦理学上的大问题。
真的,人为什么非要让机器“完全”具备人的智能不可呢?为什么不让机器只做一部分“协助”人的工作,如下矿井、登太空一类工作,而一定要让机器下棋、作诗、作曲呢?总之,让机器具备全面的智能有何必要?
但这却是科学发展规律和客观的必要所决定的。从研究机器翻译开始,人工智能的研究就不得不一步步地深入探讨人的思维功能的奥秘。翻译,原来并不像一些无知者所想象的那么简单,凭一部词汇量极大的字典或词典,再加一些精确的语法规则(但无论哪一种自然语言的语法都是不精密的),就能由机器有效地完成。在机器翻译和其他许多领域中碰了钉子以后,人工智能和有关学科的学者就更加重视研究语言、思维、人脑、认识论或哲学了。所以,现在一般论述人工智能的书中说,人工智能研究的最终目的是“使非人的机器中产生类似人的智能”,倒不是没有道理的。浅尝辄止已不可能了。
那么,假设有一天达到了这个目的,又怎样呢?
哈佛大学的数理哲学家希拉里·普特南(Hilary Putnam)有一篇论文《机器人:是机器,还是人造的生命?》。据T.克拉克说的,普特南假定机器人模拟人的心理,可以达到完全相同的程度,他的文章的结论是:“作为本文题目的那个问题(机器人是机器,还是人造的生命),并不是要求发现什么的问题,而是要求作出一个判断,即这样的机器人,是机器,还是人造的人。”
用“图灵测验”来处理未来的(不论多少年后)和人智水平相当的“智能机”时,会出现完全无法(不论如何提问测验)判定的情形。普特南的文章就是预示这样的境地。那时,图灵测验中的第三方,即作为主持者的测验者,只能凭空猜测。而且,在那种情况下,需要判定的实际上已不是被测的两方中何方是机器,而是需要判断机器人本身是机器,还是人造的人。这就是普特南文章标题所示的问题。但这个问题将是不可判定的。
这就回到了德里达的问题,即“模拟物”或“类比物”本身是否是“模拟物”和“类比物”的问题。
从德里达较早的著作《论文法学》以及最近的论文《理智原则:学生眼中的大学》等著作中,可以看到他所论述的有关“人的模拟”(mimesis)的完整理论。德里达研究了“语言”“写作”“符号”“模型”“类比”等概念,也阐述了他对“信息”“技术”“科学”“可计算性”“理智原则”等的看法,此外又涉及许多社会政治和伦理学上的现象。
海德格尔在《理智原则》(1957年)一书中说:“现代技术正向着最大限度的完善性发展。达到这种完善的基础就是:对象的完全可计算性。而对象的可计算性又以理智原则的普遍有效性为前提。因此,按这种理解的‘理智原则’的统治,就成了目前这个技术时代的特征。”
海德格尔心目中的“科学”是一种对世界的“技术的理解”,也就是把世界看成可计算对象的总和。德里达认为,这种科学观已经与传统的科学观不同。传统的看法是:科学的应用才是技术。而按照海德格尔的新看法,则已无所谓科学,也无所谓技术,而只能有“技术—科学”的概念。
德里达认为,使得科学和技术二者化为一体的一个决定性概念就是“信息”。“信息”也已成为一切科学间的“媒介语言”(lingua franca,或译为混合语)。海德格尔提出“客观性”,即“可计算性”或“符号代表”的“精确性”。那么,“信息”概念就是其中的一个关键。这种见解,早在莱布尼茨的思想中已露端倪。
海德格尔认为,计算机宣布了莱布尼茨“没有理智就没有一切”这一原则的一个新版将统治一切。但德里达认为“理智仅仅是各种类型思维中的一种——这样说,不等于说思维是非理性的”。他的关于“模拟”的一整套理论推翻了海德格尔的见解。
如果对海德格尔或莱布尼茨的“一切可计算”的“理智原则”作“技术的解释”,则首先由于海德格尔的理论把科学和技术、理论和应用、发明和发现统统混为一谈,这种混淆已不仅仅是天天看到的经验事实,而且使人不得不从理论上重新认识什么是“科学”“技术”等等的实质,最后引出一个根本性的问题:为什么要进行科学研究?德里达在《理智原则:学生眼中的大学》一文中说:在美国的一些高等学府里,基础研究(纯理论研究)和应用研究的界限越来越难划,这两方面已不可区分。“过去从来没有像目前这样,在基础研究中充塞了具有军事目标的研究。”连工具和使用者这些概念都已被弄得含糊不清。
对“理智原则”作“技术解释”的第二个后果是,德里达通过对“写作”和“模拟”概念的分析,竟使得“信息”这个关键性概念也不可避免地成了问题,即变得“不稳定”了。这么一来,海德格尔的“科学”和“理智原则”等概念也就立足不稳了。同样,在德里达理论的大框架中,人工智能的具体问题也落进了“科学的局限性”、“理智的局限性”和“可怕的政治问题”这些小框框之中了。人工智能不是讲“模拟”吗?“模拟”已经变成了一种“社会约束”。在当前西方的所谓“科学哲学”的论争中,只能看到打引号的“真”概念和“现实”概念;“真”或“不真”已经不是符合客观事实的问题,而是同行之间认可的问题,是在一个“系统”中能否自圆其说的问题。因此“真理”的标准成了某些学术和科研社团或群体的认可问题。一种理论或技术只要“模拟”得和这些社团的权威见解相似,就是“真”,就被“认可”。因此,“模拟”成了一种“社会约束”。
同样,认识论也变成了一种技术,哲学也成为一种技术。在技术统治一切的条件下,一切都染上技术的色彩,甚至都化为技术。你要理解人的思维过程,那就取决于你能否制造出一个人智的模型;造成了,就理解了;而且在制造成功以前,是无法理解人智的实质的。认识论变成一种复制智能的技术。科学和哲学理论都成为特殊社会和政治前提下的种种“工程”。因此,科学家都是工程师。
德里达的“模拟论”是一种否定的理论,在这种理论的照射下,西方科学的“理智原则”等都瓦解了。可他的这种“模拟论”又正是根据“理智原则”本身推导出来的。
德里达认为,人的思维内部就有“可模拟性”,或者说人的思维就是由“可模拟性”所构成。心理活动的每一层次都有机械的模拟活动,思维本身就包含着种种模拟活动。和许多西方学者一样,他也认为语言就是一种技术,甚至是一种“机器”。比如,一个人写一张条子给自己备忘,这就是一种自我复制。一切认识过程不能排除这种通过符号的模拟活动。思维内部既包含着种种模拟,又怎能把人工模拟思维的模型同人的思维作本质的区别?原型和模拟物不能从本质上加以区分。
按照德里达的说法,模拟物一出现就使原型一分为二,l加l不再等于2,而至少等于3。这是一种“模拟的特殊逻辑”。模拟的结果至少有三个东西:(1)原型;(2)失去了独有本质与模拟物成为一类事物的原型;(3)模拟物。
模拟活动中最基本的要素是符号。而符号,据德里达说,是唯一能够逃脱“是什么”这个问题的事物。符号不是它所代表的东西,如这样它就不成其为符号;它必须代表它不是的东西,它不反映它自身。它逃脱了“是什么”的问题。德里达这种说法已近乎诡辩,但符号本身是个矛盾却是事实。
在信息论、人工智能、计算机科学等现代科学理论中,符号概念当然是极其重要的。这么一来,由于“信息”概念成问题,西方的“科学”“技术”概念也都成问题了。
在人工智能这门具体科学中,当然更有大量的矛盾现象可以发现。例如关于“学习机”的问题,就带来许多矛盾。人工智能需要使机器能够“学习”知识,即由未知到已知。按照很久以前哈贝马斯(J. Habermas)的观点,自然科学的模型就是一台学习机,要能不断地自我纠正和自我调节。
人工智能的“学习”不仅意味着运用理智,而且意味着建造出“理智”的模型。建造“学习机”本身是一个学习的过程,但这就成了苏格拉底同曼诺对话的一个极端的例子。曼诺提出的问题是怎样从已知通向未知。但人工智能的“学习机”是一种“类比”,而“类比”的两边都还是“未知”。一边是人的思维(还弄不清楚),另一边是机器程序的计算语言(也还不知道自身是否符合人的思维)。如果说由一方解释另一方,则究竟哪方解释哪方?计算语言的程序是已知的,但无从知道自身是否符合思维的运动。
让-弗朗索瓦·利奥塔(Jean-François Lyotard)在他的《后现代状况》一书中说:“科学越来越清楚地看到精密计算的不可能性了。”
德里达说:“哲学依靠区别。但对于既相同又不是等同的现象,哲学的思维变成瞎盲。”从他的“模拟”理论来看,当前西方流行的“技术”“科学”“信息”等概念都成问题,都不“稳定”,从而给“理智原则”带来了“危机”。
危机,是德里达给西方“理智”的现状提出的一个词。“危机”这个词的希腊语源krinein的意义是“判定”,现在具体说来,就是要判定符号(代表)的客观性和确实性。但是,这个“判定”却使“理智”由于其自身的作用,而处于危机之中。这个“判定”(符号的客观性)使“理智”自身成为盲目,到了不成其为理智的程度。
德里达发展了胡塞尔提出的危机观。胡塞尔认为,危机是指“忘掉原本”,在客观主义的名义下,把理智和“意义”置于危机之中。理智由于其自身的巩固而落入险境。但德里达认为,危机就是这种“判定”。
随着世界越来越“计算机化”,就在“理智原则”占据统治地位的过程中,“理智”和“客观性”越来越深地陷入危机。本来仅仅属于科学的“外围问题”的种种伦理和政治问题,也显得越来越突出。德里达认为,人工智能的概念预示着巨大的伦理问题。
但是,人工智能,人类开拓的最新科学园地,难道真像德里达等西方学者在他们的噩梦中所梦见的那样,会生长出“知识的毒果”,使人类沦入德里达所谓“绝对的危机”吗?“理智”,既如德里达所说,并非人类思维的全部,那么,“理智”的危机,难道就是人类理性的危机吗?
※ ※ ※
在技术占统治地位的今日西方社会,“理智”,真像德里达所说,已经陷入“绝对的危机”了吗?
关于“理智”的问题,随着“人工智能”研究的开展,也越来越显得突出。“人工智能”要模拟人的智能,就必须切实弄清楚人脑活动的种种功能和本质。从“人工智能”的要求出发来谈认识论,就不能纸上谈兵了,不能像以往西方的一些哲学家那样,尽说空话。
“人工智能”研究的专家魏泽堡曾说过:“培根误解了科学的真正前途。从那时起,人们被他的误解所诱惑,就一味盼望一个理性时代的到来,并为其到来而努力。但是,人们心目中的这个理性,是一个被可悲地歪曲了的形象,因为他们把理性同逻辑性混为一谈了。”
诚然,西方许多科学家和哲学家心目中的所谓“理智”,其实就是形式逻辑思维。虽然德里达自己说过:“理智仅仅是思维的一种(形态)——这并不意味着(人的)思维是‘非理性的’。”但当他发现“理智”遇到不可解的问题时,又把这看作整个人类认识的危机。这种“理智”是否等于理性,或者主宰着理性,这个问题随着对人类思维和智能研究的发展,也就成了需要明白阐释的问题。
魏泽堡一再表示反对这样一个等式:人类理性=形式逻辑思维。他反对把人的理性仅仅看作“永远正确”的形式逻辑推理能力。他说:关于计算机能不能做人所能做的一切这个问题,实质上就是“人类思维的一切方面能否被归结为一个逻辑形式系统的问题,或人类思维是否完全可计算的问题”。“现代科学所产生的精神宇宙观,则是沾染着‘逻辑必然性’的病菌……一言以蔽之,人们已把真理篡改成为‘可证性’了。”(见魏泽堡:《计算机的能力和人类理性》,第12—13页)因此,他的问题就是:人的理性仅仅是一台图灵机吗?
我们回过头去一看,也就发现,“人工智能”问题的讨论一开始,鲁卡斯(J.R.Lucas)1961年发表的《心灵、机器和哥德尔》一文,就引起了关于这个问题的一场论争。这一论争至今似乎还没有明确的结论。同鲁卡斯争论的学者为数不少,其中包括班纳塞拉夫(Paul Benacerraf)、葛德(1.J.Good)、霍夫斯塔德(D.Hofstadfer)等。
鲁卡斯认为机器“思维”的能力永远不能胜过人,因此,“人工智能”是不可能实现的。能进行推理的机器无非是逻辑形式系统的具体化,而形式系统的局限性早由哥德尔著名的“不完全性定理”证明了。对于具有足够能力的形式系统来说,必有真命题不能由该系统来判定。鲁卡斯认为,站在系统之外的人却能认识到机器的这种局限性,并超出这种局限性,所以机器永远不如人。
霍夫斯塔德在他的《不朽的金绦》一书中详述了他自己和其他学者反驳鲁卡斯的种种论据。其中有两种反驳最生动而有趣。
第一个论据,那简直是一个笑话。假定鲁卡斯先生在大街上走,遇见一个女人,鲁卡斯就对这个女人说:你们女人不行,有局限性,因为你看不见你自己的脸。而我,鲁卡斯,却能看到你的脸。当然,那女人就会这样反唇相讥:“我看不到自己的脸?我可看到了你的尊容,你自己看得见么?你还高明呢!”挖苦鲁卡斯的这个比喻,也无非是说,机器固然有局限性,人也有同样局限性。用霍夫斯塔德的话来说,机器“跳不出”自身,人也“跳不出”自身。
反驳鲁卡斯的第二个论据,却是惟妙惟肖地模拟了哥德尔证明其第一条定理时起关键性作用的那句所谓“哥德尔语句”。这是一位叫作怀特利(C.H.Whitely)的学者想出来的:“鲁卡斯不能读出本语句,否则自相矛盾。”
就是这么一句话,请鲁卡斯读出声来。鲁卡斯如果读了出来,那他不是“不能读”,而是“能读”,但是读出来的又是“不能读”,岂不自相矛盾?所以鲁卡斯为了避免陷入自相矛盾,只好不读。可是这句话便成了一句“真话”了:鲁卡斯就是不能“读”它,否则自相矛盾。这是句“真话”,而鲁卡斯不能读出。于是怀特利就证明了鲁卡斯自己也同被哥德尔证明为“不完全”的形式系统一样,作为一个“读出文句”的“活系统”,也是“不完全”的,鲁卡斯并不比机器更高明一点。就某一特定功能而论,人往往还不及自己制造的东西,例如人的两腿远不如自己制造的汽车跑得快,人的举重能力当然远不如起重机。怀特利对鲁卡斯的反驳,当然也只说明人如果按形式逻辑规则思维,必然也带有形式逻辑的局限性;而且人的这种推理能力在准确性和速度上还远不及机器推理。但是,人可以超越这种思维方式。例如,鲁卡斯竟这么说:这个句子中的“不能读”,读了,的确会造成自相矛盾,但这个自相矛盾与逻辑矛盾不同,因为我是“能读”这个“不能读”的,这是个真实的、辩证的矛盾。把矛盾当作真实,当然违反形式逻辑的法则,但人可以超越所谓“知性”阶段的认识,而进入辩证理性的认识阶段。不过,人既能有此种辩证理性的认识,有一天机器也许也能照样模拟。因为即使拿辩证理性的认识来说(如认为有的矛盾是“辩证矛盾”),也总是要按机器的逻辑(即形式逻辑)来表述和解释的(如区别辩证矛盾的两个矛盾方面),也绝不允许出现逻辑矛盾。因此,看来人的思维虽然并不等同于形式逻辑思维,但又摆脱不了形式逻辑“无矛盾原理”的约束。辩证矛盾也必须按照“无矛盾”原则来表述。这也是目前一些所谓“非古典逻辑”或“非标准逻辑”研究的重要问题之一。至于鲁卡斯提出的关于机器永不能胜过人的论点,尽管遭到种种反驳,并没有人对它作出最后的结论。
关于机器思维的问题,哥德尔曾说过这样的话:他的理论所说明的是:“人类心灵不能把自己所有的数学直觉都形式化(或机器化)。这就是说,如果人的心灵把一部分这种直觉形式化了,那么,这一事实(即把一部分数学直觉形式化了)本身就又会产生出新的直觉知识。”哥德尔又说:“要么存在一些形式的问题,人和机器都不能解答,要么人类能解答有些形式问题,而机器则不能解答。”(见魏泽堡《计算机的能力和人类理性》,第221页)
在鲁卡斯的理论引起了一场争论之后,又有美国哲学家德雷福斯(H.L.Dreyfus)用了所谓“现象学”的重炮,猛轰“人工智能”营垒。他认为人绝不仅仅是一台电子数字计算机。计算机没有人的躯体,如何能达到人的智能水平?他指出了机器模拟人智必会遇到的种种矛盾。德雷福斯的名著《计算机不能做什么——人工智能的极限》一书的新版已有汉译本(生活·读书·新知三联书店1986年版)。
机器能写出莎士比亚写的那样的诗吗?机器能像肖邦那样作曲吗?人工智能的乐观派们听到这样的问题,往往笑着说:“还没有得到证明。”那就是说,也还没有被否证。
魏泽堡在许多看法上和德雷福斯一致,例如,他也认为计算机没有人的种种“感受”,不可能达到人智的水平。话也说得有理。不要说机器,人要是没有崇高的感情,能写出好诗吗?机器的确能写“诗”(例如日本“俳句”体的诗),但那也不过和我们见到的“朦胧诗”差不多。“朦胧诗”这个名称其实是用错了的,应该叫作“无意义诗”(其唯一意义就是“无意义”),因为“朦胧”是一种意境,诗真能写到“朦胧”的梦幻式境地,倒又好了。机器写出的“诗”也仅仅是毫无意义的“朦胧诗”。魏泽堡说,机器如果没有一个漂泊在巴黎的异邦人的孤独感、对异国夜色的种种感触,又怎能写出肖邦的夜曲?许多只能意会而不可言传的所谓“活的真理”,均非机器所能“理解”,因为这些都是“不可计算的”。人的“理性”不仅仅是形式逻辑思维;人的心灵除了“理性”,还有感情、意向等,最后还有与“意识”相对立而存在的“下意识”心理层次。
但是“人工智能”的“乐观派”们认为计算机的能力不可限量。例如,霍夫斯塔德在反驳鲁卡斯的见解时说:“人工智能研究中发展起来的许多程序……当然是心灵的模型。在它们的最高层次——非形式层次——上,可以有‘意象’(images)的活动,可以进行种种类比,可以把观念忘掉,也可以把概念混淆,使区别模糊化,等等。但这并不违反这样的事实,即这些活动依靠硬件精确功能的作用,正如人脑依靠神经细胞(neurons)的正确作用一样。因此,人工智能程序仍然是‘形式系统的具体体现’——但这些程序已非按鲁卡斯解释的哥德尔定理所能约束。鲁卡斯的论据仅仅适用于这些程序的最低层次。人工智能程序——不管这种智能已达到多高水平——并不依赖这个最低层次。”
“完全可能的是,逻辑思维过程,例如命题推理,不是事先设计包含在这类人工智能程序中,而是作为结果出现在人工智能程序的‘一般智能’之中。在人的思维中,情况正是如此,而且我们并没有特殊的理由来假设那种严格的命题演算,连同其硬性规则,以及它们所包含的十分愚蠢的关于无矛盾性的定义,将会出现在这样的人工智能程序之中。”(见《不朽的金绦》,第578页)
那些在实验室里埋头制造着“人造人”的浮士德的门徒“瓦格讷”们,做着“人工智能”美梦的乐观派们,实际上也在日夜同矛盾搏斗着。
他们在设计人工智能的种种程序时,不得不面对两个局限。第一个局限就是上边已提到的所谓人和机器都无法摆脱的“逻辑局限”,基本上是一种“理论上”的局限。那就是有一类问题,可以问,但是不可解,即没有任何有效程序可解答这类问题。例如,可以问:能否造一台机器,专门测试各种计算机计算任何合适的数据时,是否会停机。但这样的机器是绝对造不出来的。这就是上文鲁卡斯提出的“不可判定”的问题。这给了计算机一个很大的局限。但任何计算者,包括人在内,都受此局限。从实用观点来看,这类问题关系还不太大。因为某一特定的计算问题,能停机与否,往往可以找到解答。只是不存在判定所有这一类问题的程序。
霍夫斯塔德把这个问题提到哲学的高度,他说这是人和机器都不能解决的难题,即机器“跳不出”机器自身,人也“跳不出”人自身。他说,哥德尔定理第二条证明,具有一定能力的形式系统不能证明其自身无矛盾;除非它自身是矛盾的,才能证明自身“无矛盾”。一个人能证明他自己的心理是“清醒”的吗?能证明他自己的“逻辑”是健康的吗?一个人能体验他自身不再存在时的情况吗?一个人一想到他自身不再存在的时候,就陷入了矛盾,因为他既能想,也就证明他自己还存在。因此,他“跳不出”自身。霍夫斯塔德把这种矛盾名之曰“自我超越”。这个难题有点像我们的庄周提出的“庄生梦蝶”的比喻。也颇近似贝克莱主教的“存在就是被感知”命题:人跳不出自己的感觉。霍夫斯塔德却找到了我国的禅宗,企图从禅宗学说来领悟这个难题的实质。但禅宗是怎么告诉他的呢?据他说:禅的心灵对这种不可调和的(难题)十分欣赏。东方的信仰是:“世界和我是一体,我自身不存在的想法只是一个名义上的矛盾。”(见《不朽的金绦》,第698页)找到禅宗,可是他的幸运!
人工智能的乐观派迈克·詹姆斯(M.James)说,他认为“人也不过是一台计算机”,“计算机有多少局限性,人也都有”。在回答“智能可以计算吗?”这一问题时,他也提出了和霍夫斯塔德类似的问题。他说:“把一切事物,无论动物和人都归约为机器的这种论点在稳步发展,这在一定意义上说来,是鼓励人相信智能是可计算的。但是,这个稳步前进的过程,却遇到了某种中断和停顿,即在它遇到了智能问题的时刻。重要的区别是,智能和计算机都是人脑的产物,人脑能理解人体,理解其他机器的运行,而一提到人脑能理解它自身这个想法,却令人感到诧异!诚然,人脑考察它自身,就类似‘停机问题’了……而停机问题是不可计算的!”但是,他还要辩解说:“我在这里并不是提出智能不可计算这种观点,而是说,目前关于智能的问题,还仅仅是一个信仰问题:相信人工智能研究的稳步前进将会最终造成智能机。”(见M.詹姆斯:《Basic语言的人工智能》,英国纽恩斯科技丛书,1984年,第120页)
“人工智能”乐观派面临的第二个困难则是个非常实际的问题,那就是所谓“组合爆炸”问题。那种一味“求全”的“盲目搜索算法”往往不可避免地会陷入“指数式时间”增长,因为要穷举问题中元素的每一种可能的组合,组合的总数往往大到连最高速度的电子计算机也望尘莫及。光靠提高计算机速度是根本克服不了这个困难的。
第一个局限可说是计算机或“知性思维”对付不了自己造成的“恶无限”,而第二个局限却说明计算机连“有限”的问题也对付不了。譬如说,有个问题仅仅要求计算机计算100年,就必能得到解答,这一计算实际上即成为不可行的了,更不必说需要更长时间的计算问题了。
除了这两大局限外,当然还有许多实际问题不容易解决。例如,人脑使用的种种判定过程都能转化为“有效程序”或“算法”吗?目前的神经生理学、语言学、心理学等等与人工智能密切相关的学科研究水平,还远远落后于人工智能的要求。
于是,人工智能的实践家们不得不研究一种叫作heuristic的程序设计。heuristic这个词现在有几种译法:启发法、启示法、探试法。按照传统的讲法,一个“程序”就是一张指令表,上面一步一步给出一个问题的明确解答,或者给出一个不存在解答的解答。这张表就叫作“算法”。但人工智能研究所碰到的许多问题往往找不到“算法”,或者虽有“算法”而不“能行”。所以其所采用的往往不是严格的、有保证的“算法”,而是实行一套“松散”的规则,这种办法只是“看来”能收效而已。一种规则看来有可能使计算接近一个问题的解答者,就叫作“启发式”规则。“如果没有启发式程序的办法,我们将绝望地陷入‘组合爆炸’的绝境。仅凭这一点,也就可以为使用启发式程序找到论据了。”(见利奇:《人工智能》,美国麦克格劳-希尔,1983年版,第36页)“未来的计算机科学和程序设计,几乎可以肯定,将更注重启发式或以启发法—算法相结合的方法为主的解决问题的途径。”(见詹姆斯:《Basic语言的人工智能》,第11页)正如T.克拉克所说:“毫无疑问,过去认为人工智能就意味着一切‘思维’可以从一个根据形式原则工作的系统中推导出来,这样的想法早已成为过去。”(见美国《今日哲学》杂志,1985年冬季号,第302页《作为通用模拟机的计算机》一文)
启发法一语,源出古希腊语heuriskein,意为“去发现”,它也是eureka一词的希腊语语源。eureka是阿基米德突然发现称金冠难题的解法时喊出的那个词,意为“发现啦!”现在对于启发法的研究已形成一门学问,叫作heuretics,或可译作“启发学”。
启发学看来是值得研究的一门学问;有的启发规则的确很有意义,例如,下述这个在“某一特殊领域”发现有“意义概念”的启发法。
如果有一个有意义的函数f(x,y),试假设其中x,y二变项为同一,则能得到什么?在数学领域中,如果f是“乘”函数,那么,这条启发规则就能引导人发现“平方”概念;如果f是“集合”的“并”概念,即能发现“恒等”函数的概念。在不那么形式化的领域中,如果是“思考”则这条启发规则能引导到“内省”概念的发现,如果f是“杀”,则将发现“自杀”概念。
启发规则的实质可用一些成语来表达,例如:“小洞不补,大洞吃苦”,“一只鸟在手,胜过两只鸟在枝头”,“失败是成功之母”,等等。总之,笼统叫作“试错法”(trial and error)的一类方法,实际上确是人解决问题的经验中的一部分。只许对,不许犯错误,是不符合辩证法的片面想法,要求步步正确,结果总是适得其反,便落入种种局限性之中了。
但是,启发法虽然已有专门的研究,到底还是一种不够系统的理论,是几乎纯凭经验来试行的方法。目前许多“人工智能”程序都是建立在这种光凭经验法则(rules of thumb)的启发法基础上的,此外再靠随时添加点应急措施。这种策略归根到底,仅仅是在系数可以预料的条件之下,看上去“能工作”或“有效”的方法而已。
魏泽堡甚至说,这类方法不是什么科学的东西,无非是小聪明的技术杂凑罢了。他说:“即使17世纪最聪明的钟表匠,也永远不能靠制造越来越精巧的钟表而发现牛顿的定理。”(见魏泽堡:《计算机的能力和人类理性》,第197页)
不过,他也认为有些启发式程序是有价值的。他说,例如某个“人工智能”程序在最初设计时,还没有后来成为其总的基础的理论,或者这种理论还未能按“有效程序”的要求来充分表述,但在全过程中,设计者先从有关学科的专家的知识中汲取“启发式”规则,故这种程序最初仅仅是一种算法和启发式规则的混合体,其中算法部分是从已经充分理解的方面取得的。随着工作的进展,程序中的启发式规则部分越来越被理解,整个程序随之逐步得到修正,最后全部建立在理论的坚实基础之上,而不再是依靠经验的了。
启发法规则的研究说明人工智能的实践家们在根据“一切可计算”的“理智原则”引导下,碰了钉子,转向研究现实中人的解决问题的经验方法。他们的经验方法还没有什么理论。但是已有一种哲学,或者说认识论,就应运而生了。这就是认为“科学就是一种发现活动”的“理论”。目前,英美有一些哲学家研究所谓“发现方法”,被叫作“发现之友”。他们反对把方法论和狭义的逻辑等同起来,也否认培根的传统意义的发现逻辑的存在。他们提倡“没有‘发现逻辑’的发现方法论!”结果也就如克拉克所说的,科学理论和应用不分,科学仅仅是提出问题和解决问题的活动。J.辛梯卡(Hintika)把科学研究的逻辑看成是问题、答案和问答序列的“逻辑”。所以,最近有的哲学家如罗蒂(Rorty)说:“认识论死了!”(我国的江天骥同志说:“这个科学哲学中的最新方向同逻辑经验主义相比较,实在是180度的大转弯。”)
那么,德里达说“理智”陷于危机,是因为他发现许多概念如“模拟”“符号”“类型”“类比”等本身就是矛盾的,因而许多问题无法“判定”,“不可计算”。他从海德格尔的“一切可计算”的“理智原则”出发,从而得出了“理智”陷入危机的结论。跟着“理智”走,却走进了“理智”的绝境。德里达的哲学遐想结果如此,而那些深信能制成“人造人”的乐观家的哲学遐想结果又如何?他们是被“理智”自身的双重局限(理论上的和实际上的)推落到“无理论”的经验主义(启发法规则的研究)黑暗中去了。没有理论,岂不违反自己的“一切可计算”论了吗?乐观者和悲观者是从同样的对“理智”的信仰出发,而做着截然相反的梦,结果仍然是“殊途同归”:“理智原则”教他们抛弃“理智原则”。也许他们应该超越知性思维,进入辩证理性的境界。但是他们一时还不会梦醒。他们之中运气最好的也不过在梦中摸着了《六祖坛经》或《无门关》的古老而神秘的书页而已。
人的“理性”是否等于形式逻辑思维能力?人是否等于一台图灵机?至今还找不到定论。魏泽堡说:“每一台现代计算机,原则上都是一台通用图灵机。”(见魏泽堡:《计算机的能力和人类理性》,第63页)
图灵机的实质究竟是什么?图灵自己说出了这个秘密:
“(离散状态机器)的运动方式,是从一个十分确定的状态突然跳到或变到另一个确定状态。这种前后状态之间的差别,足以使我们忽略它们间产生混淆的可能性。严格说来,这样的机器是没有的。一切事物的运动事实上都是连续的。但有许多种机器,把它们看作离散状态机器,是有好处的。例如,在考虑照明系统的开关问题时,把每一次开关都当作必然是确定的‘开’或‘关’是一种便利的幻想。在开关之间必有中间状态,但是从大多数用途着想,我们可以把这种中间状态忘掉。”(见图灵《计算机器和智能》一文)
图灵机是可计算性的一个体现,也可以说是形式逻辑推理的体现,也就是莱布尼茨“理智”的体现。它是离散概念间纯外部关系推演的机械化。它只是一个幻想。图灵说得很明白:“这样的机器是没有的,”是不可能存在的,因为脱离了“连续”的“离散”,除了在人的头脑里可以幻想以外,宇宙间是没有的。固然我们可以把事物连续性的一面忘掉,但又只能暂时忘掉。把大自然的现象(包括人的思维在内)用钟表、经纬仪、度量衡规定、数,一句话,人的概念,加以“离散”的理解和表述,不仅仅是一种“抽象化”“片面化”;也如人们说过的,是一种“贫乏化”。
但是,列宁解释了这种“贫乏化”的意义:“如果不把不间断的东西割断,不使活生生的东西简单化、粗糙化,不加以割碎,不使之僵化,那么我们就不能想象、表达、测量、描述运动。思维对运动的描述,总是粗糙化、僵化。不仅思维是这样,而且感觉也是这样:不仅对运动是这样,而且对任何概念也都是这样。”(见列宁:《哲学笔记》,人民出版社,第285页)
这不但是一种人的认识所必经的阶段和必须使用的方法,它本身也形成了一种认识论。认识论、辩证法和逻辑是一回事。图灵机所体现的形式逻辑,是一种认识论,其中也包含着辩证法——它能反映自身的矛盾和局限。这种认识在哲学史上也曾使人们看到了种种辩证的矛盾。例如,柏拉图的曼诺悖论:从已知如何通向未知。还有霍夫斯塔德提出的种种“跳不出”自身或“自我超越”的难题。其实知道“跳不出”自身,已经处在自身和外部的界线上了,可以说已经“跳出”自身了。费尔巴哈在谈到主观唯心论者用这种片面的认识论划下感觉和客观世界之间不可逾越的鸿沟时说:“承认神父们所划下而为哲学教授们所袭用的某种不可逾越的鸿沟,是何等荒谬。”可以把这种界限打破:“幻想的产物也是自然界的产物,因为幻想的力量,和人的其他一切力量一样,就其基础和起源来说,归根到底是自然界的力量,但是人毕竟是跟太阳、月亮和星辰……一句话,跟人用自然界这个一般名词所标明的那些存在物有区别的存在物。”(见列宁:《唯物主义和经验批判主义》,人民出版社,第109页)他的意思是有区别,又没有区别(至少没有不可逾越的鸿沟)。如果说“自在之物”不可知,那又怎么知道它“不可知”的?
这一种“理智”的“认识论”发展到极致,就会给我们带来一连串的矛盾。德里达的矛盾和“危机”就是这种认识论的必然结果:符号当然是一个矛盾,它不能仅仅是它自身,它必须代表另一事物,但它又并不等于它所代表的事物。它不仅仅是用印刷或其他方式表示的一个痕迹,它又同它以外的其他一切事物不同,它必须是它自己,但又必须不是它自己。只有用矛盾才能全面说明它,如果不准用矛盾来解释它,那它的确是逃脱“是什么”这个问题的事物。模拟物既像又不像原型,本来是正常现象。那种1+1=3的“特殊逻辑”才是荒谬的结论。模拟物的出现岂会使原型失去“独特”的本质?相反,当人的智能之外,又出现另一种(机器)智能的时候,人类智能的本质将显得更为“独特”。一种颜色有了另一种颜色来衬托,将更为鲜明。绝对的等同只是在哲学的遐想或狂想中才有。人会不会遭到“人造人”或机器人的排挤或迫害?“我们的社会越来越依赖计算机系统,这是很严重的问题。计算机系统本来是用来‘帮助’人进行分析和判断的,但是计算机系统早已成为使用者所不能理解的东西,而且成为他所不可缺少的东西。”(见魏泽堡:《计算机的能力和人类理性》,第236页)人制造的东西(如机器),会反过来控制人,这种情形历史上并不罕见。但归根到底还是由于人还处于控制不了自己命运的境地。人还不是自己的主宰的时候,当然也主宰不了自己的制品。美国的老百姓说:“我们都是机器人。”他们实际上是美元统治下的牛马。在阶级社会,用不着哲学家的遐想,眼前就有“机器排挤人”的现实。因此哲学家们在议论关于“人工智能”引起的“伦理”问题时,与其抱怨科学技术的发展,不如多多探讨西方社会制度的痼疾。
“进行抽象的、因而是进行分离的知性,它在它的分离中僵化了。它与理性相反,是作为普通人的知性而活动的……认识所走的这种弯路,虽然好像是损失和退步,却是有深刻的东西为基础;……理性的提升就是依靠这种基础。这种成了普通的观念,其基础须在对知性的规定必然互相冲突这一觉察里去寻找。——上述的反思,就是要超出具体的直接物之上,并且规定它,分离它。但是,这种反思同样也必须超出它自己的那些进行分离的规定之上,并且首先要联系它们。在这种联系的立场上,那些规定的冲突便发生了。这种反思的联系,本身就是属于理性的;超出那些规定之上,提高到洞见它们的冲突,这是达到理性的真正概念的伟大的、否定的一步。但是,这种不曾透彻的洞见却落入错误了解之中,仿佛陷于自相矛盾的,却是理性的;这样的洞见并不认识矛盾正是对知性的局限性的超越和这种局限性的消解。认识不从这最后一步走往高处,反而从知性规定令人不满意之处逃回感性的存在,错误地认为在那里会有坚固的、一致的东西。”(见黑格尔:《逻辑学》上卷,第26—27页)
黑格尔这一段话简直生动地描画出了“人工智能”研究在知性思维引导下走的一段弯路,这种弯路在哲学史上并不少见。这一回大致就是从所谓“逻辑主义”走向了“发现之友”们的纯经验主义。发现了矛盾,而又不能认识到“矛盾正是对知性的局限性的超越和这种局限性的消解”,却大呼“理智的绝对危机”已来到。不向光明的高处走,遂堕入了黑暗的深渊,那就只好在那儿做梦了。
(选自《国外社会科学》1987年第5、6期)