时间:2020-02-28 来源:互联网 阅读次数:
在21世纪,我们迫切需要就意识进行图灵测试。人工智能正在学习如何驾驶车辆、诊断肺癌以及编写自己的计算机程序。智能对话可能在十年或二十年内就会出现,而未来的超级人工智能不会生活在真空中。它将可以访问互联网,读取查莫斯和其他哲学家关于感质和意识等问题的著述。但是,如果科技公司能在本地内部网上对人工智能进行beta测试,隔离这些信息,他们就可以进行图灵测试式的对谈,以检测有关感质的问题是否对人工智能有意义。
但是,对于查莫斯的哲学僵尸一说,我有一个小小的问题。哲学僵尸应该有能力提出有关体验属性的任何问题。不过,值得深思的是,一个缺乏体验的人或机器如何能回顾其没有过的体验。在播客“Making Sense”(此前的名称是“Waking Up”)的一集节目中,查莫斯与神经学家兼作家萨姆·哈里斯(Sam Harris)讨论了这一问题。“我认为至少设想一个能这么做的系统并不是特别困难,”查莫斯说,“我的意思是,我现在正与你交谈,而你正在做出大量有关意识的评论,这些评论似乎很强烈地表明你具有意识。尽管如此,我至少可以考虑这么一个想法,即你并没有意识,你实际上是一个僵尸,你发出所有这些噪音的同时内心并没有任何意识。”
我所在的实验室由加州大学洛杉矶分校的马丁·蒙蒂(Martin Monti)领导,致力于通过开发更好的手段,从大脑电生理活动或代谢活动来推断意识的情况,从而改善脑损伤患者的生活。当我们拔掉那些意识清醒但没有反应的患者的生存设备时,就会产生伦理悲剧;而如果我们拔掉人工意识的电源,就会出现同样的悲剧。就像我在加州大学洛杉矶分校的实验室所做的工作,就是将理论上的意识测定与脑损伤患者的临床行为联系起来,而未来的研究人员也必须将人工意识的理论测定与人工智能在某种图灵测试中的表现联系起来。到了那时,当我们不再需要教科书的时候,我们仍然需要思考僵尸无法回答的那个问题。(任天)
澳大利亚哲学家大卫·查莫斯(David Chalmers)有一个著名的问题是,是否可以想象“哲学僵尸”(philosophical zombies)——那些表现得像你我一样却又缺乏主观经验的人——的存在?这个问题引起了很多学者对意识的兴趣,包括我。原因在于,如果这种僵尸(或者说精密但毫无感情的机器人)可能存在,那么仅仅用物理属性——关于大脑或类似大脑的机制——就无法解释意识体验。相反,我们必须考虑一些额外的精神属性,才能解释什么是有意识的感觉。弄清楚这些心理属性是如何产生的,就成为所谓的“意识的困难问题”。
面对一个潜在的硅基思想,我们会提些什么问题?对于诸如“如果我的红色是你的蓝色怎么办?”或“会有比绿色更绿的颜色吗?”这样的问题,人工智能给出的答案应该能让我们了解很多关于它们精神体验(或者缺乏精神体验)的情况。一个具有视觉体验的人工智能可能会思考这些问题暗示的可能性,或许会这么回答,“是的,我有时会想知道是否还会存在一种颜色,能将红色的发热与蓝色的冷淡混合在一起。”另一方面,缺乏视觉感质的人工智能可能会回答,“那是不可能的,红色、绿色和蓝色各自以不同的波长存在。”即使人工智能试图自由发挥或欺骗我们,比如回答“有意思,如果我的红色是你的汉堡包怎么办?”这就表明它没有抓到重点。
盲视似乎表明一些行为可以完全机械化,也就是说,可以完全没有任何主观意识地做出某些行为,这回应了查莫斯的哲学僵尸概念。盲视者的大脑似乎利用了视觉系统的前意识区域,在没有视觉体验的情况下产生视觉行为。这种情况经常发生在一个人遭受中风或其他视觉皮层损伤之后。视觉皮层是处理视觉信息的大脑皮层。由于此时人的眼睛仍然是健康的,因此眼睛可能会将隐藏在意识中的信息提供给特定的大脑区域,比如上丘(superior colliculus)。
建立一个意识的“检测器”并不是一件小事。除了这样的图灵测试,未来的研究人员还可能会应用今天的抽象意识理论,试图从计算机的接线图中推断出意识的存在。一种这样的理论就考虑了大脑或其他系统整合的信息量,并且已经被用于推断脑损伤患者是否具有意识,甚至用于推断鱼群是否具有意识。事实上,在以检测人工意识为动机的研究获得大量资金支持之前,在脑损伤患者中检测意识的需求就已经突破了科学上的禁忌。
这不是一个严格的学术问题。如果谷歌的DeepMind公司开发了一个人工智能,它开始提问“为什么红色感觉像红色,而不是其他什么东西”,那么就自有少数可能的解释。或许它从别人那里听到了这个问题。这是可能的,例如,人工智能可能只需要简单地阅读有关意识的论文,就可以学会提出关于意识的问题。它还可能经过编程来提出这个问题,就像视频游戏中的角色一样。或者,FANUC机器人维修,它可能从随机噪音中蹦出了这么一个问题。很显然,提出有关意识的问题本身并不能说明任何事情。但是,如果没有从其他来源听到这些问题,或者没有足够的随机输出的话,一个人工智能僵尸会自己构想出这种问题吗?对我来说,答案显然是否定的。如果我是对的,那么我们就应该认真考虑当一个人工智能自发地提出有关主观体验的问题时,它就很可能是有意识的。因为我们不知道在没有确定一个人工智能是否有意识的情况下,拔掉它的电源是否合乎道德。我们最好现在就开始注意听取这些问题。
上一篇:美政府更新国家人工智能研发战略