首页 » 推理的迷宫:悖论、谜题及知识的脆弱性 » 推理的迷宫:悖论、谜题及知识的脆弱性全文在线阅读

《推理的迷宫:悖论、谜题及知识的脆弱性》第11章 心灵:塞尔的中文屋

关灯直达底部

在世界上的所有奥秘之中,心灵是最神奇的。心灵远比大脑复杂。我们可以说,一大块果冻一样的大脑是自然选择形成的,它具有大量的复杂功能。但是,意识是从哪儿来的呢?

关于大脑是如何工作的,生物学研究正在取得巨大进展。然而,有人认为,我们关于意识的理解仍然像过去一样浅薄。心灵的问题长期以来一直是哲学家关注的核心。近来,随着神经学、认知科学和人工智能等领域的进展,这个问题几乎成为热门话题。有一组迷人的悖论,可以清晰地展现人们当前(指本书成书的20世纪80年代)对心灵问题的思考。

思维机器

上一章提到二进制的柏拉图洞穴囚徒。这个囚徒面对的是形式最为抽象的感性经验。颇具讽刺意味的是,我们的大脑就是这样的囚徒,洞穴就是我们的颅骨。看起来,任何人都不可能再现大脑处理感性信息的全过程。本章的思想实验以此为起点。

关于心灵的最原始的理论认为,心灵根本不存在。笼子里的一只鹦鹉在镜子里见到自己的形象,它会把镜像当作另一只鹦鹉。它不需要用“心灵”来形成一套世界观。这并不是说鹦鹉是愚蠢的,而是说它没有自我意识。鹦鹉可以意识到它的世界里的许多东西,它的鸣叫、给它吃的骨粉,等等。这种意识可以成熟到能够预测有生命的对象的活动的程度,例如,它可以预测主人每天早晨会来给它喂食。主人是否需要做什么事来向鹦鹉显示自己有“心灵”?不必。这只鹦鹉(它的智商很高)可以把自己观察到的行为归因于已知或未知的原因,而无须相信心灵的存在。

值得注意的是,某些极端的怀疑主义哲学把这种观点推广到了极致(例如休谟对自我心灵的怀疑)。那么,是什么令我们相信,他人和我们一样有心灵呢?在很大程度上是因为语言。我们与他人的交流越多,我们越倾向于相信他人有心灵。

另一种理解心灵的方式是二元论。二元论认为,心灵(或精神、意识)是某种与物质不同的东西。其实,无论我们是否接受二元论,我们经常说这样的话:某人特别有精神;他们丧失了灵魂;钱未必让心灵安宁。我们经常会有这种感觉:他人的心灵是存在的,而且心灵或多或少地依附于身体,正是这种感觉滋养了二元论。

随着生物学家对人体研究的深入,他们越来越清楚地发现,构成人体的物质与无生命的物质并无本质差别。人体的主要成分是水;“有机”化合物可以合成;渗透压、导电性等物理因素在细胞层起作用,细胞的机能大量地依赖这些物理作用。在局部领域,关于人体和人脑的机械模型构想获得了如此巨大的成功,以至于我们很容易相信,机械论模型也许可以解释大脑的整个宏伟结构。于是,有人认为大脑是某种“机器”或“计算机”,而意识是机器以某种方式运行产生的结果。这是理解心灵的第三种方式。

虽然这种理解装饰了许多现代观念,实际上对意识的机械论解释——以及对这种解释的质疑——由来已久。莱布尼茨在1714年讨论过“思维机器”,现在看来仍令人叹服:

进一步说,我们必须承认,知觉以及建立在知觉之上的东西不可能用机械的原因解释,也就是说,不可能用物质及其运动解释。假定有这样一台机器,它的结构造就了思想、感觉和认知。我们设想这台机器被等比例放大了,我们可以走进它内部去参观,就像参观工厂一样。假定你可以走进去,但是你能看到什么呢?除了各个部件的运动和相互作用以外,什么也没有,没有任何东西可以解释知觉。

莱布尼茨的论证并无特别之处,但是它确实令我们大多数人对心灵的机械论模型产生反感。确实,这台思维机器在进行思维,但是走进去一看,里面空空如也。你指望在里面看到什么呢?

大卫·科尔(David Cole)对莱布尼兹提出了一个简洁的反驳:把一小滴水放大到工厂那么大,此时H2O分子已经和化学课上用的水分子塑料模型一样大了。你可以走进水滴内部参观,但是却见不到任何湿的东西。

功能主义悖论

挑战机械论模型的其他思想实验则很难反驳。劳伦斯·戴维斯(Lawrence Davis)的“功能主义悖论”即为一例。

功能主义认为,如果一台计算机能够实现和人脑一样的功能,那么就应当承认,它在其他重要方面都与人脑平等,它也有意识。人脑可以被当作一个“黑箱”,从神经细胞接收输入信号,以某种方式对信息进行加工,然后向肌肉发送信号。(每一间缸中之脑实验室都有两条电缆,一条输入,一条输出。)如果有一台计算机,接收与人脑相同的信号,总是产生与人脑相同的反馈,我们该如何评价呢?这台计算机有意识吗?这个问题就像爱因斯坦和因费尔德的密封手表的例子(见第1章),我们永远无法确知。然而功能主义认为,我们有最充分的理由相信:如果“意识”这个词有某种客观性的含义的话,那么这台计算机是有意识的。功能主义主张,基于同样的理由我们应当相信他人有心灵,其根据是他人的行动方式。

戴维斯在一篇未发表的论文中提出了这个悖论,这篇论文曾被提交给1974年的一次会议。这篇论文值得关注,虽然它未受到应有的重视。戴维斯说,假定我们已经了解了关于疼痛的全部细节。如果功能主义是正确的,那么我们可以造一个可以感受疼痛的机器人。这个机器人非常巨大,我们可以走进它的内部——就像莱布尼茨的思维机器一样。机器人的脑袋里面就像一座巨大的办公楼。里面不是集成电路,而是穿着西装、坐在办公桌后面的职员们。每张桌子上有一部电话,电话连着几条线,电话网模拟大脑的神经连接,可以感受疼痛。这些职员受过训练,每个职员的任务是模拟一个神经元的功能。这个工作很无聊,但是工资和红包非常诱人。

假定就在此刻,这个办公系统中的一组电话工作起来了,这种工作状态对应一种非常剧烈的疼痛。根据功能主义的观点,机器人处于剧痛之中。但是疼痛在哪里呢?在办公大楼里转一圈,你看不到疼痛。你看到的只是一群平静、冷漠的中层经理,喝着咖啡煲电话粥。

下一次,机器人感到无法忍受的疼痛,你进入大楼参观,发现这些职员正在举办圣诞联欢,每个人都非常尽兴。[1]

图灵检验

我们稍后再讨论戴维斯的悖论,下面介绍一个与之密切相关的思想实验——约翰·塞尔(John Searle)的“中文屋”。关于中文屋,我们先介绍一点儿必要的背景。

中文屋基于艾伦·图灵的“图灵检验”。图灵在1950年的一篇论文中提出一个问题:计算机有没有思想?图灵论证说,除非我们指定某件事,这件事是有思想的对象会做而没思想的对象不会做的,否则,这个问题就是无意义的。什么事才能把有思想者和无思想者区分开呢?

计算机已经掌握了计算能力,在此之前,计算只能由具备专注力而且有智力的人类完成。图灵意识到,检验必须非常严格,例如,标准至少要比下一手漂亮的象棋更高。计算机很快就能掌握下棋的技能,但是这距离有思想还差很远。[2]图灵提出了一种检验方法,他称之为“冒充游戏”。

一个人坐在计算机终端前,向两个对象——A和B——提问,A和B隐藏在另一间屋子里。在A和B中,有一个是人,另一个是号称有思维能力的精密的计算机程序。提问者的目标是分辨出哪一个是人,哪一个是计算机。另一方面,人和计算机都竭尽全力令提问者相信自己是人。这很像一种电视竞猜节目——目标是把一个你不认识的人和冒充者区分开。

提问者只能通过计算机终端进行交流,这个事实使得他只能利用两个对象的实际回答判断,除此之外没有任何依据。他不能指望借助于机械合成的说话声音或是其他线索。隐藏在另一间屋子里的人可以说:“嗨!我是人!”但是这样做恐怕没什么用,因为计算机也可以说同样的话。计算机不必坦率地承认自己是计算机,即使提问者直截了当地提问。A和B都可以撒谎,只要他们认为撒谎符合自己的目的。如果提问者问一些私人信息,例如A的妈妈的闺名,或是B的鞋子尺码,计算机可以捏造答案。

计算机程序必须做出人类才会做出的反应,从而使得提问者在半数的检验中把计算机误认为人,这样才算是通过检验。图灵认为,如果把智力定义为外部的行动和反应,那么,一台通过了这种检验的计算机应被视为确实展现了智能。这是一个非同寻常的要求。

这样说来,计算机是否有思想?图灵的结论是,“计算机是否有思想”

这个最初的问题是“一个缺乏明确意义的问题,不值得讨论。尽管如此,我相信,到20世纪末语言的用法和受过教育的大众的观点会发生很大的变化,我们将可以谈论‘机器的思想’而不用担心措辞本身有矛盾。”

自图灵的论文发表以后,这些年来人们把心理过程和算法相提并论已变得稀松平常。如果你按照一个确定的算法计算圆周率的各位小数,而一台计算机利用同样的算法也进行计算,那么你的思想过程将有一小部分与计算机的运行直接对应。一种被广泛接受的观点是,智力乃至于意识同计算机程序一样,可以在不同类型的“硬件”上运行,人脑是其中的一种生物性的硬件。从理论上说,你的大脑的神经元功能、神经元的状态和神经元之间的联系可以被复杂得惊人的计算机程序丝毫不差地模拟。如果这个程序运行起来(即使是在由微型芯片和导线组成的计算机上运行的),它也可以展现与你相同的智力甚至意识。

长期以来,心灵被当作灵魂、生命冲动以及笛卡儿二元论中的一元。知识界大体上已经放弃这些有机械论倾向的意识理论。约翰·塞尔1980年的思想实验设计了一个竞猜游戏,直观地展现了微妙的心灵问题。如果意识无非是算法,那么意识是从哪儿来的?塞尔只给我们留下一个候选项,而这个备选项也是成问题的。

中文屋

设想你被锁在一个房间里。房间里除了有一本厚厚的书之外,空空如也,书名令人泄气:《如果有人从门缝塞进来一张写有中文的纸怎么办?》。

一天,一张纸从上了锁的门底下被塞进来,纸上写着汉字。你不认识汉字,对于你来说,这些字不过是些无意义的符号。你正在急于找一件事做来打发时间,于是你求助于手头这本《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书。书中不厌其烦、细致周密地介绍了如何“处置”纸上的这些汉字,你把这个工作当作消磨时间的扑克游戏。书中介绍了复杂的规则,你需要做的是依照这些规则在文本中搜索特定的汉语字符,确定它出现过。这个工作毫无意义,但是你别无他事,只有遵循这些规则行事,消磨时间。

第二天,你又收到一张纸,上面写着更多的汉字。奇怪的是,对于如何处理这些汉字,书中也有介绍。书中有进一步的指示,告诉你如何对第二张纸上的汉字字符进行关联和加工,以及如何把这些信息和你从第一张纸上取得的成果结合起来。书的最后介绍了如何把一些特定的符号(有些符号在纸上,有些在书上)抄到一张空白纸上。把哪些符号抄上去,这取决于你此前的工作,并且会受一种复杂的规则制约。最后,这本书告诉你,把写好符号的纸从你的囚室门底下塞出去。

但是你不知道,第一张纸上的汉字是一个简短的汉语故事,而第二张纸是基于这个故事提出的问题,就像在阅读测验中提出的问题一样。你按照指示抄在纸上的那些符号就是这些问题的答案(对此你也不知情)。你所做的是,按照一个复杂的算法处理一些字符,算法是用英语写就的。这个算法模拟了一个说汉语的人的思维方式,或者说,至少模拟了一个说汉语的人在读到这些材料时进行阅读、理解和回答的方式。这个算法非常完美,以至于你给出的“答案”与那些母语是汉语的人读完这些材料后给出的回答没有差别。

建造这间屋子的人们宣称,屋里有一头受过训练的猪,可以理解汉语。他们把这间屋子搬到了国家展览会会场,让大家在外面提交用中文写的一则故事和针对故事的一组问题。屋外的人不相信屋里是一头懂中文的猪。从屋里传出的答案太“人性化”了,每个人都猜想,里面是一个懂中文的真人。由于屋子始终是锁着的,没什么办法能打消屋外人的这种怀疑。[3]

塞尔的要点是:你理解中文吗?你当然不懂!有能力执行复杂的英语指令不等于有能力理解中文。你连一个汉字都不认识,你没有从汉字里读出一丁点儿含义。你有一本书指示你的行动,需要强调的是,这本书不是枯燥的中文教程,他并没有教给你任何东西。你只是在生搬硬套书中的规定,至于为什么这样规定,某个字符的含义如何,书中只字不提。

对于你来说,你所做的不过是消磨时间。你按照规则把纸上的中文字符抄到一张空白纸上。你的工作就像一个人玩扑克牌,按照游戏规则拿起一张红色的J,把它接在一张黑色的Q之下。如果有人在你玩牌时问你,一张扑克牌的含义是什么,你会回答,它没有含义。当然,扑克牌作为符号曾经有过含义,但是你会坚持说,在你玩牌时这些含义不起作用。我们把某张牌称为“方块七”,只是为了与其他牌区分开,以简化应用规则的过程。

即使你有能力执行针对中文的算法,也不能说你理解中文(汉语意识就更谈不上了)。如果对于人,我们得出以上结论,那么对于机器也是如此:单凭一台机器可以执行算法就说它有意识,会显得非常荒唐。因此塞尔得出结论:意识并非算法。

大脑和牛奶

与许多怀疑计算机具备思想的可能性的其他人相比,塞尔的怀疑已经相当温和了。他的思想实验假定有一个行得通的人工智能算法。这个算法是针对汉语字符的一系列操作指令。显然,这个算法要比汉语语法简洁得多。它接近于对人类思维过程的全面模拟,必须比较简单,从而使任何人都能执行。

向屋里提供的故事可以是任何故事,提出的问题可以针对任何相关的事实、推论、解释和观点。这些问题不是(至少不必是)选择题、复述题和划线题的题型。塞尔给了一个例子。故事可以体现为这样的简短形式:“一个男人走进一家餐馆,要了一个汉堡包。汉堡包送上来了,但是烤得很脆。这个人怒气冲冲地离开餐馆,既没有付账,也没有给小费。”问题是:

“这个男人吃汉堡包了吗?”当然,故事中没提这个人吃没吃,而且,连“吃”这个汉字在故事中都没出现。但是每一个理解这个故事的人都会猜想,此人没吃汉堡包。

问题可以是,“巨无霸”[4]是不是一种汉堡包(从故事本身看不出来;除非你以前知道,否则答不出来),也可以问,这则故事是否令你发疯(故事中没出现“疯”这个汉字)。问题可能是,要求你指出令你发笑的句子,或者要求你利用同样的字符写出另一则故事。这个算法处理故事的方式必须和人类的处理方式很相似。如果这个算法是用LisP或Prolog之类的计算机语言写出来的,它必须能够通过图灵检验。塞尔避免了假定黑箱里的一台计算机运行一个复杂算法,他把这个任务交给了一个人。

塞尔认为,图灵检验也许并不像人们所声称的那样关键。如果一台计算机的行为和人一模一样,这是很了不起的,但是这并不足以说明它有“意识”。这个问题其实还是“他人心灵”问题,只不过采取了更为尖锐的形式。即使怀疑论者在哲学思辨以外也不怀疑他人心灵的存在,但是机器是否有可能具备与我们相似的意识,对此我们通常表示怀疑。

塞尔对这个问题的看法令人惊讶。他相信,人脑确实是某种机器,但是意识与人脑的生化结构和神经学结构有关。一台由导线和集成电路构成的计算机即使完全再现了人脑的全部神经元的功能,它仍然是没有意识的。(虽然它与人脑的功能相同,而且通过了图灵检验。)相反,一颗弗兰肯斯坦式[5]的大脑却可能有意识,虽然这种大脑也是人工制品,但是组成其的化学物质与人脑的相同。

塞尔把人工智能类比于计算机模拟光合作用的发生。利用计算机程序可以很好地模拟光合作用的全部细节。(例如,在显示屏上设计出栩栩如生的叶绿素原子和光子,以这种方法模拟。)虽然全部的相关信息都囊括在程序中,但是它永远不能像真正有生命的植物那样生产出真正的糖。塞尔认为,意识是一种类似于糖和牛奶的生物制品,而且属于副产品。

在这一点上很少有哲学家赞同塞尔,但是他的思想实验引起了广泛的讨论,其他思想实验则极少如此引人注目。我们来看一下大家对塞尔的回应。

回应

一种观点是,这个实验是完全不可能实现的。《如果有人从门缝塞进来一张写有中文的纸怎么办?》这本书不可能存在。我们解释语言和进行思考的方式不可能表达为按部就班的操作步骤,永远无法充分了解并写进一本书中。(也许可以借用贝里悖论和普特南的孪生地球来说明。)因此,这个算法是行不通的。从屋里送出的“答案”应当是无意义的胡话或者不知所云的喋喋不休。它们骗不了任何人。

在我们确实找到这样一种算法以前(假如这种算法确实存在),以上论证都是稳固而不可反驳的。需要注意的是,只有塞尔本人乐于承认这种算法存在的可能性。严格说来,我们不一定非得做出这一假设:只有在我们发现大脑的全部工作机理之后,才可能进行这个实验(或类似实验)。我们可以按戴维斯设计的办公大楼进行模拟试验。人脑大约包含1 000亿个神经元。据我们所知,单个神经元的功能相对比较简单。设想我们完全确定了某个人大脑的状态:所有神经元的状态、神经元之间的联系以及每个神经元如何工作。然后,我们动员全世界的所有人参与实验,模拟这个人的大脑运转。全球50亿人,其中每个人负责处理大约20个神经元的动作。对于神经元之间的每一个联系,相应地在代表这些神经元的人之间连上一条线。神经元之间每传递一次冲动,就拉一下这根绳子来表示。每个人都来操纵一些这样的绳子,以模拟他们所扮演的那些神经元之间的联系。然而,无论这个模拟工作完成得多么完美,对于他们所模拟的“思想”是什么,所有人都一无所知。

还有一种观点支持塞尔的结论:这种算法是有可能的,但是这并不意味着具备了与懂中文的人相同的意识。塞尔的支持者援引了句法性理解和语义性理解之间的区别来说明。[6]实际上,书中给出的规则提供了对中文的句法性理解,但是没有提供语义性理解,屋子里的人不知道某个词的含义是“房子”而另一个词的含义是“水”。显然,对于意识来说,语义性理解是至关重要的,而计算机之类的东西永远不会具备这种能力。

几乎每个反对塞尔的人都主张,在中文屋周围游荡着某种类似于意识的东西。也许这种东西是潜在的、原始的,也许它表现得迟钝、幼稚,但是它确实存在。

笨法学中文

在所有支持“在中文屋中有关于中文的意识”的观点中,最简单的一种认为,屋子里的人实际上学会了中文。在句法性理解和语义性理解之间并不存在绝对的分野。在此人遵循规则操作了很多次以后,也许会逐渐形成本能。也许此人根据操作这些符号的方式可以猜到符号的含义。

这种论点的关键在于,是否必须明确地告诉此人,这是“水”、那是“房子”,此后,此人才理解了文字符号的意义。换个说法,我们是否有可能通过观察词的用法掌握所有词的意义?即使你从未见过斑马,你依然可以获得对“斑马”这个词的语义性理解。你当然没见过独角兽,但是你对这个词有语义性理解。

如果你从来没见过马,你依然能获得这种语义性理解吗?再推进一步,如果你从来没见过任何动物(甚至没见过人),你能获得这种语义性理解吗?如果你在一定程度上与要认知的对象隔绝,那么将连理解本身是否存在都成问题。

假定今天是上算术课的第一天,你因为生病缺课了。就在这次课上,老师讲了什么是数。你回学校以后,不好意思问什么是数,因为别人好像都知道。你加倍努力地学习以后的课程,如加法表、分数等。你非常用功,最后成为算术最棒的学生。但是你心里面觉得自己是个冒牌的好学生,因为你连“什么是数”都不知道。你只知道数如何运用,数如何相互作用以及数如何与世界上的所有其他东西相互作用。

有人认为,我们对于“数”的全部理解不过如此(虽然在这方面,“斑马”和“数”可能不尽相同)。一个类似的例子是欧几里得几何学。在几何学研究之初,通常不对“点”、“线”等概念做出如此的定义,只有通过关于这些概念的公理和定理,我们才获得了对它们的理解。[7]

对于以上观点的一个反驳是,在屋里的人记住规则、猜出字符的含义以前,就可以给出中文答案——他一开始就能做到。在屋里的人学会以前的很长一段时间里,出题者一直可以问一些需要使用“生词”回答的问题,这些生词是屋里人以前从未用过的。(“人们放在汉堡包里的、用腌菜水加工出来的东西是什么?”面对此题,塞尔的实验对象能否推断出“泡菜”这个词的意义呢?)

杰基尔博士和海德先生

有人主张,中文屋里的模拟者懂中文,但是他不知道自己懂中文。戴维·科尔把塞尔的实验对象比作一个病人,他懂两种语言,但是因为患了一种奇怪的大脑疾病,他不会在两种语言之间做翻译。他可能有多重性格,患有人格分裂症或是失忆症。(具体属于哪种情况,由你决定。)

杰基尔医生[8]走进中文屋,他只会说英语。通过执行算法,创造出会说汉语的海德先生。杰基尔医生不知道海德先生,反之亦然。因而,实验对象不会在英语和汉语之间互译。他不知道自己的汉语能力,甚至否认有这种能力。

我们的头脑中有许多自己没意识到的功能。此刻,你的小脑正在调节你的呼吸、眨眼以及其他自动实现的功能。通常,这些功能无须大脑干预。你可以有意识地控制这些功能,如果你愿意的话。另外一些功能(例如脉搏)则自动化程度更高,只能在一定程度上通过生物反馈技术加以控制。还有一些功能的自动化程度更加彻底,根本不可控制。所有这些功能都在你的大脑的监控之下。

既然如此,分别掌握一种语言的两种人格为什么会处于如此分裂的状态?也许是因为,汉语能力是以一种怪异的方式被移植到实验对象头脑中的。

系统观点回应

塞尔最初发表论文时,已预见到其思想实验会得到一些反馈。其中一种被他称作“系统观点回应”。该回应认为,实际上此人不懂中文,他本人只是整个过程中的一个环节,从理论上说,这个过程可以懂中文。塞尔中文屋中的人不可类比于我们的心灵,他只能类比于我们大脑的一小部分(虽然这个部分很重要)。

这个系统观点回应不是随便说说。一般来说,解决中文屋悖论的这种思路在认知科学专家中最为流行。即使最极端的机械论者也不认为单个的神经元有意识。意识是一个过程,神经元是这个过程中的中介。锁在屋子里的人、提供指导的书、从门底下塞进来的纸、此人用来写字的笔,这些也都是中介。

塞尔对这个回应提出了反回应。他的观点大致是:我们承认意识存在于整个系统中,这个系统包括人、屋子、提供指导的书、一些纸片、铅笔以及其他东西。但是我们可以拆掉屋子的墙,让此人开放工作;让他记住书中的指令,所有操作都在头脑中进行;在需要写字的时候,让他用指甲把答案画出来。这样,整个系统还原成了一个人。他懂中文吗?显然不懂。

这些思想实验的一个危险在于,在操作过程中太容易跑题了。你必须确保,你正在设想的(而非你正在进行的)实验不会破坏你的设想。大多数支持系统观点回应的哲学家和科学家认为,塞尔中文屋的核心问题就在这里。

说明书中的一页

分析一下这个问题的技术细节是有好处的。为便于讨论,我们调整一下假设:假定屋里的人是说汉语的,但是他对英语一无所知,甚至不认识罗马字母。(这样假定可以使讨论更方便,因为我们的讨论变成了如何理解英语。)向屋里提供的故事是《伊索寓言》中狐狸和鹳的故事,次日向屋里提出的一批问题是关于这两只动物的。屋里有一本说明书,书名是《如果有人从门缝塞进来一张写有英文的纸怎么办?》,书是用汉语写的。我们考虑一下这本书的内容。

这本书必须有一部分内容教你如何识别“Fox”(狐狸)这个单词。我们知道,英语中只有单词(而非字母)才有意义。于是,为了模拟对角色和故事中的事件进行推理的心理过程,任何算法都必须把对应于角色和事件的单词分离并识别出来。懂英语的人瞟一眼就能认出“Fox”这个词,但是说汉语的人做不到,他必须遵循一个繁复的算法。这个算法可以是这样:

1.搜索文本,寻找类似于以下符号的符号:

如果发现了类似符号,转到步骤2。如果文本中没有这样的符号,转到说明书的第30 761 070 711页。

2.如果此符号的右侧紧跟着一个空格,则回到上一个步骤。如果此符号的右侧紧跟着另一个符号,把第二个符号与下列符号比较:

如果相符,则转到步骤3。否则,回到步骤1。

3.如果步骤2中的第二个符号右侧紧跟着一个空格,则转到步骤1。否则,比较其右侧符号与下列符号:

如果相符,转到步骤4。否则,回到步骤1。

4.如果步骤3中的符号右侧紧跟着一个空格或下列符号之一,则转到说明书的第84 387 299 277页。如果其右侧是一个不同的符号,则回到步骤1。

这些指令距离最终目标还差很远。当涉及如何对狐狸进行思考时,谁知道指令会复杂到什么程度呢?

我们手里没有塞尔设想的理解中文的算法,但是我们有简单一些的算法。假设有一个非常幼稚的人,他以前从来没见过袖珍计算器,这个可怜的家伙可能会形成一个错误的观点:计算器有思想。你可以用塞尔实验的方式令他醒悟。向他提供计算器使用的微处理器的说明书和接线图,把计算器按键在输入问题时产生的电信号传递给他。让他模拟计算器在算题时进行的操作。这个由真人模拟的微处理器可以产生正确的结果,但是没有意识到自己实际上算了一道数学题。他不知道自己计算的是2加2,还是14.881度角的双曲余弦。这个人不会有抽象的数学运算的意识,同样,计算器也不会有。如果有人利用系统观点回应提出反驳,你可以让实验对象记住所有东西并在头脑中完成操作。是这样吗?

别这么确信。计算器为了进行一个简单的计算需要经过数以千计的步骤。这个实验很可能需要许多个小时。除非实验对象记忆力超群,否则他不可能在头脑里完成对微处理器的模拟。在执行过程中,他几乎肯定会遗忘某些中间过程,从而毁掉全盘工作。

现在考虑塞尔的实验对象的状况。给他的说明书必须非常大,甚至要比地球上的任何房屋都要大。

由于还没有人设计出可以操纵汉语字符正确地“回答”问题的算法,我们无法估计这种算法的庞大程度和复杂程度。但是,由于这种算法必须模拟人类的智能,所以有理由认为,它的复杂程度不会比人脑差太远。

可以设想,1 000亿个神经元中的每一个在实际的(或潜在的)心理过程中发挥某种作用。因此我们可以认为,那本模拟人类操作汉字符号的说明书至少需要包括1 000亿条不同的指令。如果每一页上写一条指令,就意味着要写1 000亿页。于是,这本名为“如果有人从门缝塞进来中文文本怎么办?”的书更像是一套丛书,这套丛书包括1亿卷,每卷1 000页。这大致相当于纽约市图书馆藏书量的100倍。这个数字后面也许可以去掉几个0,但是很明显,没有人能够记住这些指令。同样,没有人可以不用到纸片,或者更好的工具——一个庞大的档案管理系统。

问题的关键不在于这个算法偶然地因过分庞大而不可执行。中文处理算法中嵌入了大量的人类思维过程,其中包括基本常识的储备。(例如,人们在餐馆里如何行事的常识。)人脑是否有能力记住同人脑本身一样复杂的东西?当然不能。这个问题类似于,你不能吃下比你本人大的东西。

你很可能见过这样的统计结论:“平均而言,一个美国人每6个月吃掉一整头牛。”对于这种说法可以做类似分析。一头牛比人大,但是作为统计对象的人每次只消灭牛的一小部分。在任何一个时刻,你的体内都不会包括太多的牛肉。塞尔的实验对象也是如此。

人脑是由物理材料构成的,记忆存储是通过这些物理材料的化学状态和电状态实现的,因此,记忆力的容量是有限的。人脑有多大部分是用来记忆东西的尚不清楚,但是显然不会是全部。也许只有一小部分有记忆功能。人脑的其他部分必须用来执行其他功能,例如,对记忆进行操作,获取新的感觉材料,等等。

显然,如果假定实验对象可以记住规则,所有这些思想实验(包括塞尔的以及批评者的)则误入歧途。一个人只能记住整个算法的一小部分,不可能再多。他不得不反复求助于说明书和纸片(或者档案系统)。他经常遇到这种情况:说明书要求他参照某张纸,他看着那张纸,边摇头边说:“唉!我都忘了我曾写过这些东西。”还有一种可能:他翻到说明书的某一页,发现那里夹着一个咖啡杯垫,这表明他曾看过这一页,但他不记得了。

从本质上说,这个人只是整个过程中的一个很小的部分。他就像一个查号台接线员,每天数以千计的电话号码经过他的眼,但是他在念完一个号码以后,很快就忘了。关于电话号码的信息其实全在电话号码簿里。在塞尔实验中,算法主要存在于说明书和纸片中,实验对象以及他在某一刻记住的极少一部分指令在整个算法中几乎不占什么比例。

中文屋里的人是有思想的,但是这与整个思想实验无关,而且,这是一个误导我们的因素。我们可以用一个机器人代替屋里的人。(这个机器人不是老套的科幻小说中的人工智能机器人,而仅仅是一个装置,也许只比自动算命机稍复杂一点。)屋里的人在实验过程中体会不到自己的意识以外的其他意识,这个事实平淡无奇,就好像说明书的第411 095卷也体会不到意识一样。

这可以解释为什么屋里的人不承认自己懂汉语。如果要问,这个过程中意识存在于何处以及意识如何存在,更不可能得到满意的答案。我们会指着那些纸片、说明书等,说:“意识就在那儿,在文件柜旁边。”我们猜测,这就是所谓的只见树木、不见森林,我们所能做的一切恐怕就是做出这样一种猜测。我们的处境就像在科尔的例子中走进巨型水滴内部的人遇到的——此人见不到任何湿的东西。

中文屋在时间方面的膨胀更甚于其在空间方面的膨胀。设想我们有一部时间机器,可以把中文屋的运行速度加快1万亿倍。这样,说明书被飞速翻动,变成一团影子;一堆一堆的纸片看起来像生物繁衍一样生成;屋里的人走动太快,已经看不见了,成为机器里的一个幽灵。也许,我们对意识的某些构想要求其运行速度达到令人目不暇接的程度。

与爱因斯坦的大脑对话

道格拉斯·霍夫施塔特(Douglas Hofstadter)在1981年设计了一个思想实验:把爱因斯坦的大脑在死亡时刻的状态全部记录在一本书中,配上模拟爱因斯坦大脑活动的指令。通过细致地执行这些指令,你可以实现一次与爱因斯坦的对话,虽然对话过程非常迟缓,而且是在爱因斯坦死后。你从操作中得到的回应就是爱因斯坦会对你说的话。你必须把这本书当作“爱因斯坦”,而且不仅把它视为一本书,因为这本书“认为”自己就是爱因斯坦!

霍夫施塔特的思想实验完全把所谓的意识分成了信息(在书中)和操作(由人执行书中的指令)两部分。任何使得这本书成为爱因斯坦的东西都在这本书里。但若是把这本书放在书架上,它显然和其他书没什么两样,它没有意识。这样我们就面对一个精妙的困惑,它相当于塞尔实验的死人版。

假定某个人每天按照一定的节奏一丝不苟地执行书中的指令。于是,爱因斯坦的意识就被再现了(或者说,看起来被再现了)。过了一段时间,这个人又把书放回书架,休了两周假。书中的“爱因斯坦”是死了还是没死呢?

当然,在操作停止时,这本书不会像我们一样注意到终止。如果把这本书比作“爱因斯坦”,那么这个人相当于保证我们的大脑运转的物理定律。

如果这个人执行指令的速度下降到每年执行一条,将会如何?这个速度是否足以令这本书“活着”?如果每个世纪执行一条指令呢?如果两条指令之间的时间间隔逐次倍增呢?

[1] 这个思想实验的初始假定是,“我们已经了解了关于疼痛的全部细节”。然而,了解关于疼痛的全部细节并不等于了解疼痛本身,我想,这个问题的要旨就在于此。戴维斯和莱布尼茨共同的错误在于,把“知道”和“看到”混为一谈。——译者注

[2] 本书出版时(1987年),计算机程序已经可以抗衡人类的国际象棋大师。现在,人类最优秀的棋手已难以匹敌个人计算机。——译者注

[3] 塞尔之所以用“中文”说事儿,是因为在英语中“中文”有神秘莫测、艰深晦涩之意。——译者注

[4] 麦当劳快餐店的一种大号汉堡的名称。——译者注

[5] 在玛丽·雪莱的著名小说《弗兰肯斯坦》(1818年)中,科学怪人弗兰肯斯坦利用死尸器官造出了有生命的怪物。现在,英语中“Frankenstein”这个词专门指人造的类人怪物。——译者注

[6] 简单地说,句法性理解和语义性理解之间的区别在于:前者把语言视为单纯的符号游戏,对符号进行组合,对符号串进行变形,如此而已;而后者包括把符号匹配于语言之外的某些东西(即所谓的“意义”或“指称”)。——译者注

[7] 此处所说的几何学是指严格公理化的几何学。非专业人士学习的初等几何学大量借助于生活常识,学习过程确实是从定义基本概念开始的:我们先学习什么是“点”和“线”,然后才有公理和定理。——译者注

[8] 杰基尔医生,英国小说《化身博士》的主人公,人格分裂,海德先生是他的化身。——译者注