由于哲学与认知科学在研究思路、研究方法上的不同,二者的结合需要以哲学的概念分析和逻辑推导对问题和概念进行解析,再辅以生活中的实例,从中抽取和概括出供认知科学进行实证研究的问题和范式。从哲学的角度来说,认知科学能够从实证上对哲学的观点、思想进行证实或证伪,而认知科学的实验证据又能反过来帮助哲学重新对问题和概念进行定义和解析。更为重要的是,认知科学提供了一个客观研究途径,可以用于解决哲学领域存在多年仅能通过主观思辨推动的争议性议题。
哲学与认知科学共同攻关的一个最好例子就是道德研究。道德为拉丁文中的道德性与希腊语中的伦理性的统称,通常指一个社会群体约定俗成的行为规范和风俗习惯。经过几个世纪的发展,哲学理论采用了演绎式的逻辑语言分析方法,确认了一些道德中能够指导人类行为的普遍原则。而认知科学则采用了科学的实证研究方法,根据脑损伤病人的道德行为改变推断出了组成道德认知的主要维度,并进一步对道德判断与行为的认知及其神经机制进行阐述。哲学理论可以为认知科学中的道德研究提供人类普遍存在或适用于特定文化的习俗和价值观,而认知科学则能够从实证上对这些习俗和价值观的影响进行验证,对其未来发展进行预测,从而反过来帮助哲学理论重新对道德进行定义和解析。因此,在道德研究领域,哲学和认知科学能够互为参考和补充,成为哲学和认知科学联合攻关中成果最为丰硕的领域。接下来我们将以道德判断、具身道德情绪和机器道德这三个道德研究领域中的重点问题为例讨论如何将哲学与认知科学研究手段进行有机结合,共同攻关。
一
在道德研究领域,最为经典的问题就是道德判断,尤其是道德两难困境。例如著名的电车困境,在该困境中,一辆失控的电车向着站有5个人的轨道驶去,片刻后就会碾压到他们。而此时一个人站在电车拉杆旁,可以选择拉动拉杆,使电车驶向另一条轨道。然而,另一条轨道上也有1个人,因此让电车转向会使其碾压到这1个人。那么个体是否要选择拉动拉杆使电车转向,就成为一种两难困境。一直以来,哲学家和伦理学家对这种道德两难问题进行了大量讨论研究,主要集中在功利主义、道义论等角度。随着认知科学的发展,科学家们可以用更加客观的研究手段来考察道德判断过程中的内在心理机制和脑机制。例如普林斯顿大学的哲学学者兼认知学者约瑟华·格林纳在2001年发表在《科学》上的脑成像研究中发现,在道德两难困境判断中,大脑的情绪功能系统和认知功能系统都参与了主要的判断形成过程。其中,大脑情绪功能系统中的杏仁核、扣带回、脑岛,以及腹内侧前额叶在道德判断中起着重要的作用。很多道德情景都会诱发出大量的情绪反应,如由伤害导致的同理心、愤怒,由破坏社会规范引起的厌恶等。这使得人们在做出道德判断时会受到情绪的影响,做出更为严厉或宽容的惩罚决定。而与此同时,大脑认知功能系统中的背外侧前额叶等又会对这些情绪反应进行调控,使得人们做出更为合理的道德判断。据此,他提出了道德判断的双加工理论模型,认为正是在情绪与认知功能系统两者的竞争过程作用下,人们才最后形成了关于一个人或事件的好坏判断。在道德判断问题上,哲学家们提出了经典的研究范式和丰富的理论,认知科学家在此基础上采用客观研究手段发掘出了背后的认知机制,从而共同对我们理解道德判断的过程做出了贡献。
二
另一个将哲学与认知科学研究结合得非常好的是道德情绪的具身研究。在道德哲学中,隐喻是道德具身化的一个重要来源,是对两种物体或现象的关系进行描述的一种语言过程,根据这两种物体或现象的关系,在实际运用中,可以直接用一种物体或现象替代另一种使用。道德隐喻研究的一个重点是身体洁净与道德纯净的关联,其在不同文化的宗教仪式和日常生活中都有体现。又如莎士比亚名剧《麦克白》中的“麦克白效应”。麦克白夫人唆使丈夫谋杀了顿肯王,手上沾满鲜血后,呻吟道:“洗掉,该死的污点!我要洗掉!”麦克白夫人希望通过洗去身体上的污垢使心灵上的犯罪感、愧疚等情绪得到释放。这种“洁净近于圣洁/美德”的隐喻使得人们希望通过清洁身体达到心灵的圣洁。这种道德隐喻进一步得到了认知科学家们的实验验证。钟晨波等人2006年发表在《科学》上的一个研究发现,回忆不道德事件会诱发对身体洁净的需求;而在回忆完不道德事件后洗手,能够降低人们的内疚和后悔等情绪。认知科学家进一步通过脑成像技术发现做出不道德行为后,人们在观看清洗类商品时其大脑的感觉运动区非常活跃,而在回忆完不道德事件后进行清洗能够显著降低脑岛、内侧前额叶等情绪相关脑区的活动强度。这些认知科学研究既证实了哲学理论中隐喻与具身认知之间的联系,又进一步揭示了这种联系的认知与脑机制,从机制上阐述了道德隐喻如何影响人们的道德情绪与行为。
三
最后,另一个需要哲学与认知科学共同攻克的关系到人类未来命运的难题就是人工智能与机器道德问题。近几年来,随着“阿尔法狗”围棋战胜李世石将人工智能研究带上一个新的发展高潮,智能机器如何在人类社会规范的约束下做出正确的道德决策已经成为摆在哲学家和认知科学家面前的一个难题。例如,自动驾驶汽车可以有效减少交通事故,但它们在面临一些比较极端的状况时必须要做出选择,比如发生紧急情况避让不及,此时只有两个选择:撞到行人或牺牲车辆和车上乘客来保全行人,这种情况自动驾驶汽车应该做出哪种反应?人们必须设定算法来指导它在类似情况下做出选择。这种人为设定就涉及具体的道德与伦理问题,仅仅依靠认知科学已经无法驾驭,这时候就需要哲学家们来协助工作。事实上,哲学家们已经就机器道德问题展开了很多讨论。他们发现,面对这种两难情境时,研究者需要关注两种原则:一种是功利主义,即将对人构成的总的伤害最小化;另一种是自我保护原则,即对自动驾驶汽车上乘客的安全给予更多的考量。本勒丰等人2016年发表在《科学》上的一个研究发现,这种道德准则的设定存在一种困境,就是人们认为功利性原则更符合道德标准,应该采用这种原则指导自动驾驶汽车进行选择。但作为乘客,他们更喜欢自我保护原则,不愿意购买和乘坐按功利主义原则设定的自动驾驶汽车。总之,人工智能的发展给人类社会带来很多机遇与挑战,人工智能的道德问题是当前和以后哲学家与认知科学家都非常关注的热点问题,基于哲学角度的思考和基于认知科学角度的实证研究将共同为人工智能的发展提供必不可少的指导与建议。
从哲学与认知科学在道德研究上的结合可以看出,哲学与认知科学是相辅相成,互相促进的关系。哲学与认知科学交叉平台建设涉及哲学与认知科学研究的多个方面(认知神经科学与哲学、情绪脑、人工智能的哲学伦理等等),有了这样的平台条件支持,相信哲学与认知科学的交叉研究将得到蓬勃发展。
(作者:刘超,系北京师范大学心理学部认知神经科学与学习国家重点实验室教授)