第3章 人工智能(2)
麦卡洛奇和皮茨指出,神经元也可以被连接在一起,以精确的方式执行逻辑功能。神经元彼此之间收集信息输入并加以处理,来决定是否发放输出信息,由此可以想象,神经元可能是活生生的逻辑门。他们推断,大脑可能是由神经元所搭建的and、or等逻辑门和其他逻辑元件构成,就像数字电路一样。我们不清楚麦卡洛奇和皮茨是否真的认为大脑是这样工作的,他们只是说,有可能是这样。而且从逻辑上讲,对于神经元的这种观点亦不无可能。从理论上讲,神经元可以实现数字功能。然而,没有人去追问,神经元在大脑中究竟以何种方式相连。尽管缺乏生物学上的证据,他们依然将这一理论作为“大脑只是另一种计算机”的证据。
还有一点值得我们注意的是,在20世纪上半叶,人工智能的理念得到了心理学中一个占主导地位的流派的支持,这一流派被称为行为主义。行为主义者认为,大脑内部的运作机制是不可知的,他们将大脑称为“密闭的黑盒子”。但是人们可以观察和测量动物的环境和它们的行为——它们感受到了什么、做了什么,它们的输入信息和输出行为分别是什么。他们承认大脑具有反射机制,可用于训练动物形成条件反射,通过奖励和惩罚令它们学会新的行为方式。但是,除此以外,没有任何必要去研究大脑,尤其是那些混乱的主观感受,如饥饿、恐惧,或者理解某件事物的意义。不用说,这一研究理念最终在20世纪后半叶消亡了,然而人工智能领域却在很长一段时间内仍滞留于此。
二战结束后,电子数字计算机有了更广泛的应用,人工智能的先驱们纷纷卷起袖子开始了编程。实现语言之间的翻译?简单!就像破译密码一样,只需要将系统A的每个符号映射到系统B中的对应部分即可。处理视觉图像?似乎也不难。我们已经了解了处理图像旋转、缩放和位移的几何定理,而且能够轻松地将它们编成计算机算法代码,至此已经事半功倍了。人工智能专家们煞有介事地宣布,计算机的智能将很快赶上并最终超越人类。
具有讽刺意味的是,最有可能通过图灵测试的,是一个叫作Eliza的程序,它能够模仿精神分析师,将你的问题重新表述成新问题来反问你。例如,如果你输入“我和我的男朋友不说话了”,Eliza可能会回应:“跟我说说你的男朋友吧!”或者“是什么原因让你同你的男朋友不再说话了呢?”尽管它只是个被当成玩笑设计出来的无聊程序,但还是成功地骗过了不少人。也有一些正正经经设计出来的程序,比如积木世界(Blocks World),它模拟出一个包括许多不同颜色和形状积木的房间。你可以向程序提问,例如“在大红色方块上面有一个绿色金字塔形的积木吗?”或者向它发出指令,例如“请把蓝色方块移动到红色的小方块上面”,它能回答你的问题,或者按照你的要求工作。这一切都是模拟的——也确实管用。然而它只局限在完全虚拟的积木世界里,程序员们无法将其扩展到实际的应用中。
与此同时,人工智能技术领域的一连串表面上的成功和相关新闻给公众留下了深刻的印象。最初引起人们兴奋的是一个能够解决数学定理问题的智能程序。自柏拉图以来,多步演绎推理就被视为人类智慧的巅峰,因此起初看来,人工智能就像中了头彩。然而结果证明,同“积木世界”一样,这个程序的能力也是有限的,它只能找出非常简单的定理,且都是一些已知定理。随后,一个名为“专家系统”的数据库引发了公众的巨大关注,它包含了能够回答人类用户所提问题的细节事实,比如,“医学专家系统”能够根据列出的症状来诊断患者的疾病。然而,它们再一次被证明作用有限,并且没有任何接近广义智能的表现。计算机程序还一度在棋盘类游戏中达到了专家水平,IBM的“深蓝”电脑对战国际象棋世界冠军加里·卡斯帕罗夫(Gary Kasparov)时的大获全胜曾经轰动一时。但是这些胜利毫无意义,因为“深蓝”电脑并非赢在比人类更聪明,而是赢在比人类快了几百万倍的运算速度上。“深蓝”没有直觉。人类象棋大师综观盘面,一眼就看得出棋盘上的有利和危险区域,而一台计算机对于这些重要信息没有天生的直觉,必须去试探更多的选择。除此之外,“深蓝”对于象棋的历史毫无概念,对自己的对手也一无所知。就像计算器能够做算术却不懂数学一样,“深蓝”能够下棋,但并不是真正了解象棋。
在任何情况下,再怎么成功的人工智能程序也只是擅长于它们被设定处理的特定领域。它们无法概括,也不具有灵活性,甚至连它们的创造者也承认它们不会像人类一样思考。一些起初被认为容易解决的人工智能问题最后都无功而返。至今仍没有一台计算机能够在语言理解能力上超过3岁的幼儿,或在视觉能力上超过一只老鼠。
多年的努力换来的只是无法兑现的承诺和不被认可的成果,人工智能逐渐开始失去它的光环。一些科学家转向了其他领域。初创公司纷纷倒闭,资金支持也越来越少。就连编写一段执行感知、语言和行为等最基本功能的程序似乎都是不可能完成的任务。这种状况到今天也没有改变。正如我先前所说,尽管仍有人相信人工智能所面临的问题能够通过运行更快的计算机来解决,但大多数科学家认为,以往所有的努力都存在问题。
我们不应该由此责难人工智能的先驱们。阿兰·图灵的确是伟大的。他们中的每个人都会告诉你,图灵机将要改变世界——它也确实改变了,但不是通过人工智能。
在申请MIT时期,我对于人工智能领域种种论断的怀疑进一步加深了。加州大学伯克利分校的著名哲学教授约翰·塞尔(John Searle)当时提出,计算机不是智能,也无法获得智能。为了证明这一点,1980年,他想出了一个被称为“中文屋”的思维实验:
假设有间屋子,墙上开了一条缝。屋里的桌子旁边,坐着一个会说英语的人。他手头有一本很厚的说明手册,还有足够用的铅笔和草稿纸。通过翻阅手册,他能够根据用英文写成的说明,来处理、排序和比较汉字。重点是,手册中的指令同汉字的含义没有丝毫关系,它们只负责解决汉字应如何被复制、删除、重新排序和转录等问题。
屋外有人从墙上的缝里塞进来一张纸,上面用中文写着一个故事和与之相关的问题。屋内的人对中文一窍不通,但他接过纸来,开始按照手册上的指令工作。这是一种生搬硬套的辛苦活儿,指令有时让他在纸上写下一些汉字,有时又让他移动或删除一些汉字。他按部就班地根据规则写写删删,直到指令告诉他工作已经完成为止。这时,他已经写出了一页新的汉字,这正是那些问题的答案,而他对此并不知情。按照指令,他需要将这页纸从缝中送出去。他照做了,心中却充满疑惑:这个乏味的游戏究竟是在做什么?
屋外,一个懂中文的女人读罢这页汉字后,表示答案完全正确——甚至还很有见地。如果你问她,这些答案是否出自于一个透彻地理解了故事的聪明头脑?她一定会说是的。但她说得对吗?是谁理解了这个故事?当然肯定不是屋里的人——他完全不懂中文,对这个故事一无所知。但也不可能是那本手册吧——它只不过是一本安静地躺在纸堆里的书。那么,理解是从何处产生的呢?塞尔的回答是:根本没有“理解”这回事——有的只是无须动脑地翻书和写写画画而已。现在让我们转向问题的关键:“中文屋”与数字计算机何其相似!屋里的人就相当于是CPU,只会无意识地执行指令;手册相当于向CPU下达指令的软件程序;而那些纸就是内存。因此,一台通过产生相同的人类行为来模拟智能的计算机,无论设计得多么巧妙,也不会具有理解能力和智能。(塞尔曾明确表示,他不知道什么是智能——这句话的言外之意是,不管智能是什么,计算机肯定没有。)
这种说法令哲学家和人工智能专家之间产生了巨大分歧。它催生了数百篇夹杂着尖刻言辞的相互攻击的文章。人工智能的捍卫者们提出了许多论据来逐条反驳塞尔,例如,他们声称:虽然屋子的各组成部分都不懂中文,但如果将其视为一个整体来看,它还是懂的;屋里的人是懂中文的,只不过他没有意识到这一点。在我看来,塞尔的说法是对的。当我谨慎思考过“中文屋”实验的论证和计算机的工作原理之后,我并没有看到任何地方有“理解”的产生。这让我坚信,我们需要弄清什么是“理解”,并为它下一个定义。这个定义应当能够清楚地告诉我们,什么样的系统是智能的,什么样的不是;什么样的系统懂中文,什么样的不懂。而仅仅凭借系统的行为,是无法进行判断的。
人并不需要刻意去“做”任何事来理解一个故事。我可以安静地读一个故事,虽然没有任何外显的行为表明我清楚地理解了,但至少对我而言,这是个事实。另一方面,你无法从我安静的行为上看出我是否理解了故事,你甚至无从得知我是否懂得这个故事的写作语言。虽然过后你可以向我提问,但我对故事的理解发生在我阅读之时,而非回答之际。本书的其中一个主题便是:理解是无法通过外部行为来测量的,相反,它是对大脑如何形成记忆并利用这些记忆来作出预测的一个内部度量。关于这一点,我们将在接下来的章节中谈到。“中文屋”、“深蓝”电脑和大多数计算机程序在这一点上有个相似之处,就是它们并不理解自己在做的事情。而我们判断一个计算机是否智能,除了通过它的输出(即行为)外,并没有别的途径。
人工智能为自己辩护的最终论据是:理论上讲,计算机能够模拟整个大脑。一台计算机可以模拟所有的神经元和它们之间的连接,一旦它做到这一点,就意味着大脑“智能”和计算机的模拟“智能”之间不再有任何区别。虽然这在实际中不太可能,但我同意这一看法。遗憾的是,人工智能的研究者们并没有模拟大脑,因此他们的程序没有智能。而在理解大脑如何工作之前,也无法去模拟它。
被英特尔和麻省理工学院拒绝之后,我一时不知该何去何从。当你不知下一步怎么走时,最好的办法就是原地驻足,耐心等待转机的出现。于是我继续在计算机行业工作。我在波士顿过得心满意足,一直到1982年,我的妻子想要移居加州,我们便举家搬了过去(这也是让摩擦最小化的办法)。我在硅谷的一个初创公司Grid Systems找到了工作。Grid发明了第一台笔记本电脑,这台美妙的机器后来成为了纽约现代艺术博物馆的第一个计算机藏品。我先后在市场部和工程技术部工作过,直到后来我发明了一种高级编程语言,它被我命名为GridTask。随着这个发明连同我本人对Grid公司越来越重要,我的职业生涯也渐入佳境。
直到那时,我仍然没有办法将对大脑和智能机器的好奇抛诸脑后。我像着了魔一样地渴望去研究大脑。我报名参加了一个人体生理学的函授课程,开始自学(还好函授学校不会拒绝任何人!)。在学习了一定的生物学知识后,我决定申请一个生物学的研究生项目,打算从生物科学内部去研究智能。如果计算机科学界不需要大脑研究的理论家,或许生物学界会欢迎一个计算机科学家。那时还没有理论生物学这一科目,尤其是理论神经科学,因此对我的兴趣来说,生物物理学是最相近的领域。我努力学习,参加了入学考试,准备了简历,恳请曾就职的公司写了多封推荐信,最后……瞧,我终于被加州大学伯克利分校接收,成为一名生物物理学的全日制研究生。
我欣喜若狂地想,这下终于可以开始认真地研究大脑理论了!我从Grid公司辞了职,也没打算再重回计算机行业。当然,这意味着无限期地放弃我的高薪。我妻子那时正纠结于“是时候买房生娃过日子了”,而我却心甘情愿地成为一个不能养家糊口的人。这对于我们来说,绝对不是一个容易的选择。但对我个人来说,它却是最好的选择,我的妻子也因此支持了我。
在我离开公司之前,Grid的创始人约翰·艾伦比(John Ellenby)将我拉进他的办公室,对我说:“我知道你并没有打算再回到Grid公司或者计算机行业,但谁都不知道未来会发生什么,对不对?你与其完全退出,何不就把它当个休假呢?那样的话,如果一两年之内你返回来,就可以按照你离开时的标准,重新领薪水,继续做你的职位,拿你的股份。”这是一个非常友好的姿态,我于是接受了他的建议。但我心里却明白,自己这次是要永远告别计算机行业了。