人造意识能够实现吗?



所有跟贴·加跟贴·论坛主页

送交者: by愚人 于 March 26, 2004 21:25:59:

《人造意识能够实现吗?》 愚人

《事类通编》说萧梁时候,高僧竺道生在苏州虎丘讲法,“立石为徒,石皆点头”。类似的传说大量散见于古代民间传说和志怪小说里,《聊斋志异》里就有许多这样的故事。总结起来,这些故事可以分为两大类,一类就是上面说的,从无生命转化为有生命,有意识的物质形式;另一类是从非人类的生命转化为像人类那样有意识的生命,或者甚至更高级的生命形态,例如千年老树化妖,千年老狐化妖等等。

在现代人看来,上面的故事自然是无稽之谈,可是这类无稽之谈里,却可以引申出一个非常有趣的问题:到底意识能不能从无生命的物质里产生?这就是自从1956年提出的人工智能这个领域以来,最使研究者感兴趣的问题。

如今人工智能已经发展成一个庞杂的多分支领域,涉及了许多方面的进展,在诸如模糊逻辑、神经网络、遗传算法、专家系统、知识表示、自然语言处理、机器学习、数学定理证明、演绎与推理、模式识别方面,不同程度地取得了成就。迫不急待的科幻小说家,好莱坞最有想象力的导演受到这些成就的鼓舞,已经无数次让真正象人那样思维的机器人在小说和电影里得到了实现,也影响了富于幻想的青少年把有智慧的机器人的诞生,看成是一个在不远的将来必然发生的事情。

使用机器尽可能模仿人类思维活动的技术被称为“人工智能”(Artificial Intelligence,英文缩写是AI)。一部分乐观的人工智能科学家提出了“强人工智能”的极端观点,所谓强AI,即计算机的算法不但终将实现人的智慧、思维,而且也能实现人的精神行为。支持乐观主义的人工智能专家对人造意识实现的人里,还有许多哲学家、和其他学科的科学家们。

但是,在另一些哲学家、物理学家、数学家眼里,问题的实质并没有得到澄清。这些学者认为,对人类实现人造意识的前景还需要谨慎,至少人造意识不可能沿着目前计算机技术前进的方向去实现。争论大约已经持续了四十年,目前还看不到两派取得一致意见的曙光。

困难说起来也很简单,就是如何实现 “意识”这个概念的问题。如果说,哲学家可以在演说厅里高谈阔论意识,大学生们可以为他们思辩的深刻而绝倒,那么,只要一个稍微聪明的小学生就可以问得哲学家哑口无言:“机器能不能实现这些概念?”

举个例子,一位坚持冬泳的莫斯科AI设计者与一位新加坡AI设计者设计了一个识别“冷、热”的模糊函数。他们以为,有了这个函数以后,计算机便可根据环境温度的变化和人相应的物理状态,就可“感受”到“冷、暖”了。不错,机器装配了这个函数以后,确实比温度计更能精确地测知冷暖的具体数据,特别地,它能反映出相对于人的物理状态,而这是温度计所不具备的。但是,机器因为有个“模糊温度函数”的功能以后,当机器手伸到冰水里面,就会感觉到人所能感觉到的知觉“冷”么?实际上,在未搞清楚知觉“冷”的概念在人脑里产生的实质以前,这些AI专家设计的冷暖模糊函数只是比温度计更精确而已,如果这样的机器能“感觉”出来“冷”,那么伸进冰水里的温度计大概也能感受到“冷”了。

如果把问题局限在仅仅考虑到一个似乎简单一点的概念“智慧”上,虽然它的含义仍然难以取得一致的看法,但似乎目前至少已经通过人工智能得到了部分实现,有些还很辉煌,例如,人工智能专家研究了人类棋手的分析推理行为,结合专家系统,他们设计了一块叫做“深蓝”的程序,该程序在1997年战胜了前国际象棋世界冠军,俄国人卡斯帕罗夫。但是,这到底能不能叫做深蓝的智慧?在一些专家看来,深蓝的成就只不过以计算机硬件通过完全搜寻来实现局势优势。它只是利用最简单的子力比较、开局表、概率,通过极高速的计算机能力,由结果来选择最佳局面的结果。“搜寻”这个计算机最基本的算法成了机器战胜人智慧的关键,而搜寻不过是程序员给机器编写的代码。

1950年,计算机大师阿兰.图灵提出了著名的“图灵测试”,测试说:

“如果你能真正地和机器谈话,在谈话里,你觉得它就像一个真实的人一样,那么你就可以认为这架机器具有了‘智慧’”

用图林在测试里的原则来判断机器是否有意识的测试,将是不完全的归纳,这是因为,作为人与人之间,虽然极大量的经验都能吻合这一测试结果,然而它的正确是建立在同类内判断的经验上,即限制在人类内部这个范围里做出判断,还没有一条证据提供了这个测试对异类具有意识所得到的成功判断。不过应该注意到,图林此处仅用了“智慧”,并未明确地使用“意识”,或者“自我意识”的概念,图林以后写的文章都很谨慎地避免使用上述两个词。很多人工智能专家,却没有认识到图林测试用来判断意识存在的不完全归纳性,他们常常在思考AI中,把计算机分析判断的过程错误地和人类意识心理行为之一--“理解”混淆在一起,结果造成了在严格讨论时烂用“理解”的概念。

第一个对图灵测试提出的置疑的是美国哲学家约翰.瑟尔。1980年,瑟尔针对图灵测试提出了他的“中国屋实验”,这个精神实验告诉研究人造意识的专家们:即使有个AI装置通过了图林测试,可是它可能实际上仍然不能理解人类提出的问题,因而也就没有意识!

其后,英国数学物理学家罗杰.彭罗斯在1989年出版的第一本反驳逻辑算法能够产生出
人造意识的书《皇帝的新脑》里,沿着英国哲学家卢卡斯的思考(1962),使用奥地利逻辑、数学家克尔特.哥德尔在1931年获得的哥德尔不完备定理和图林的“停止问题”证明了单纯的逻辑算法不能解决数学上存在的大量不可计算问题。彭罗斯这一推理虽然只用在数学直觉上,却也可以同样用在人的其他意识经验上。

中国屋实验和彭罗斯对人造意识的反驳好像给了人造意识能够被计算机编程逻辑算法实现的一个重大打击。不过,争论的另一方并不悲观,自从1956年以来,他们相继提出了“符号AI”和“连接主义”,其中,符号AI是AI领域里比较成熟的一门技术,它已经被用来模仿人类的一些思维活动,它建立在这样一种假设下:“每一个一般的智能必须通过一个符号系统去实现。”问题是,人类大脑的意识概念是不是都能用符号来进行描述?把意识归纳成符号的表现上,实际是确信,人类思维是由自然语言所形成的。一些哲学家,如弗雷格、罗素、维特根斯坦早就指出,即使人类语言也存在着语义的模糊现象,而且当代一些哲学家根据对人类语言的深层研究,也得出了意识结构难于解析的特征。

1990年史忠植提出了人类思维的层次模型,表明人类思维有感知思维、形象思维、抽象思维,并构成层次关系。感知思维是简单的思维形态,它通过人的眼、耳、鼻、舌、身感知器官产生表象,形成初级的思维。感知思维中知觉的表达是关键。显然,这样的看法对人类意识的本质有了比符号AI更进一步的认识,也就是认识到,人类意识不是单单由逻辑符号的组合形成的,它还包含有感知这样的概念,问题是计算机结合传感器件是如何实现感知概念的?

争论还将继续下去,各个领域,包括哲学、计算机科学、物理学、数学、心理学、脑神经科学结合起来对人造意识的最新研究,虽然不一定能够最终回答:人类能否制造出一个有“自我”意识感觉的机器人?这个也许是终极的问题,但可以确信,它们的成果必将促进人类对宇宙和自身认识的进展。

(原载《现代信息技术》2004/01,上海)




所有跟贴:


加跟贴

笔名: 密码(可选项): 注册笔名请按这里

标题:

内容(可选项):

URL(可选项):
URL标题(可选项):
图像(可选项):


所有跟贴·加跟贴·论坛主页