编者按:
人工智能技术的飞速发展在延伸和扩展了人类能力的同时,也让人类生存面临一系列挑战。究竟应该如何看待人工智能技术的积极效应及其给人类带来的威胁?本期组织的三篇文章分别从人工智能话语体系的建构、人工智能的“人工非智能”效应、人工智能的伦理挑战视角对此进行了研讨,以期引发进一步讨论。
今天,与其说我们正在被人工智能所威胁,不如说我们正在被人工智能所构筑的话语体系所威胁。后者可能让我们变成现代版的堂吉诃德,在惶恐中与假想的风车进行战斗。麻省理工学院物理系教授迈克斯·泰格马克在《生命3.0》中将人类当下的存在方式视为生命2.0版本,它意味着人类主要依靠进化获得硬件,即身体的基本机能,却可以通过学习和思考来构筑软件,诸如人类的思维与创造力。而生命3.0,即今天被我们津津乐道的人工智能,则是能够“自己设计硬件和软件”的未来生命体。换言之,对于泰格马克这样的人工智能专家而言,其讨论范式早已不是机器如何模拟人的存在并构筑了对人类的威胁,而是相反,人的存在方式需要模拟机器(硬件、软件)来获得表达自身的套话语体系,正是这样一种话语体系统治了今天关于人工智能的讨论,并由此产生了一种无谓的恐惧:有血有肉的人类正在被可能拥有无限计算能力,同时又不知疲倦的机器所质疑与威胁。当然,目前更多的人对人工智能持乐观态度,他们勾勒出了一条实现美好智能化生活方式的基本途径。但不管是悲观主义视角还是乐观主义视角,其共有的是对人工智能的理解方式:即基于机器的运行方式来理解人的存在方式,并在此基础上言说人与机器的比较性关系。
一
严格来说,这是一种还原论式样的思考模式,即,将人的行为进行人为的拆解:将行为背后的原因归结为人的机体的某个器官的作用。例如科学家弗朗西斯·克里克与克里斯托弗·科赫于1990年共同完成的有关“意识相关神经区”的开创性论文,详细描述了视觉、听觉、触觉可能对应的大脑不同部位;或者将人的行为还原为某种概率式的计算,比如泰格马克将意识的产生归结为信息的收集。由此形成的有关意识的理论将人的意识的构成还原成为科学可以“完全”把握的事实,具有物理学和数学的厚实基础。而所有可被科学完整把握的事实,就有可能被还原为一种0与1式的表述方式,最终为人工智能的加速发展添砖加瓦。
同样囿于这一还原论的语境,泰格马克这样界定有关人工智能讨论的核心概念:所谓智能,“即完成复杂目标的能力”;所谓意识,即主观体验;所谓目的论,即用目标或者意志而不是原因来解释事务。正是基于这一名词列表所构筑的话语体系,我们似乎面临着或可与人类对峙的挑战,因为在这套话语体系当中,原本属人的诸多特性——智能、意识、意志等问题都被还原为以“目标”为导向的行为动机。这种目标导向,原本只能算是复杂的人类行为最为外在的一种显现方式,但现在却构成了谈论人工智能的话语体系的基本要素。如果智能本身被还原为一种完成复杂目标的能力,那么人类智能将永远无法赶超被加速主义原则所支配的技术进步。因为它排除了属人的人类智能当中原本包含着丰富内涵的智慧,在后者当中,人类的情感与意志都呈现出诸多无法还原为基本算法的非确定性。
二
承认并正视这一非确定性是建构人工智能话语体系的一种可能性。它需要重新复苏一种特定的哲学人类学,让哲学的话语退回到康德时代有关“人是什么”的最终追问。而对人之本质最为晚近的思考终结于20世纪60年代的法国,后现代主义的勃兴一方面摒弃了当代法国存在主义对人之生存方式的痴迷,同时更以宣告人之死、主体之死的方式来终结了曾经盛极一时的哲学人类学。后现代主义思潮,如同古希腊怀疑论与诡辩论的一次复兴,它对于确定性的强烈拒斥在表面上似乎构成了对以确定性为旨归的科学技术发展的一种反叛,但实质上却以其对“本质”的否定,特别是对于人之本质的彻底否弃为科学技术毫无限制的蔓延提供了合法性。面对阿尔法狗(AlphaGo)战胜人类围棋高手与阿尔法元(AlphaZero)完胜阿尔法狗的事实,后现代主义者们以“怎么都行”的理论态度对之无可奈何。但正如诡辩论激发了柏拉图建构理念论,经验主义者休谟对于因果关系之先验确定性的怀疑激发了康德建构知识学,今天的人工智能不仅意味着一种技术的进步,更为根本的是它所建构的还原论话语体系,将再一次激发哲学人类学的重建。这一次哲学人类学的重建与柏拉图的理念论以及康德的知识学一样,都试图以对本质主义的重新探求树立人之尊严。因此,面对基于人工智能的技术支持而出现的物联网时代,当美国学者杰里米·里夫金惊呼“第三次工业革命”已经到来的时候,我们或许应当呼唤随之而来的又一次哲学人类学的复苏。
哲学人类学的复苏,其根本任务在于构筑一整套完全不同于人工智能的还原论话语体系,重新回答“人是什么”的哲学追问。阿尔法元给人类带来的恐慌,其根源在于它呈现了一种机器学习的能力,并在大数据的聚集与高速运算的技术支持之下实现了一种所谓的“深度学习”。但对于哲学人类学家而言,这样的一种学习能力在何种意义上挑战了人之为人的独特属性?对这一问题的追问,必将会逼迫我们更为深入地分析“人工的智能化”与“人的智能化”之间的根本区别。
三
人工的智能化建基于大数据与不断升级的各类算法。因为在还原论的话语体系当中,不仅“智能”成为完成复杂目标的能力,而且学习能力也被理解为一种叠加式的信息处理模式,它需要诸如记忆和分析等相关能力的辅助。但问题在于记忆究竟是什么,分析又是如何可能的?在深入探讨这些问题的时候,人工智能的专家再一次运用还原论的方式告诉我们,所谓记忆就是相关性信息的收集,换言之,人工智能总会将与其目标导向相关的信息加以累计。与之相似,分析能力也建基于对相关信息的归类。由此,对“相关性”的强化运用成为人工智能学习能力得以成立的基本原理。而这一原理在哲学上与18世纪英国哲学家休谟对于因果关系的分析颇为类似。休谟在分析因果关系这一左右人类知识形成的根本基石的时候,提出了一种彻底的经验主义方案,即以两个现象前后相继所构筑的相关性来建构一种因果性,从而形成人类知识。例如当我们分别以描述的口吻叙述“太阳晒”和“石头热”,其所提供的只是经验的杂多,也即人工智能话语体系中的数据信息,而当我们这样表述这一现象:“因为太阳晒,所以石头热”,其间所加入的“因为”“所以”使描述性的经验杂多成为一种知识,它们为两个独立的现象之间构筑了一种相关性。经验主义者正是在这种相关性之上建立起有关知识的确定性保障。从这一意义上说,人工智能所推进的机器学习能力的确定性建基于哲学的经验主义传统,它同时表现出的是将人的主观意识进行纯粹物质化的还原,这样做的结果,最终只会窄化对人的本质理解。
哲学人类学需要正视这种经验主义的挑战,以丰富人的本质的规定。正如我们今天需要恢复哲学人类学以对抗人工智能的挑战。在哲学发展史上,对经验主义的反抗有多种方式。例如康德式的对抗,其方式是将人的理性进行分类,将建基于相关性的知识学归入到知性之中,纳入理论理性的范围之内,将与人的自由意志相关的原则性保障归入到实践理性的范围之内,并在这两种理性之间划出一道鸿沟,以限定性的思维方式避免两种理性之间的相互僭越。再如黑格尔式的对抗,以绝对精神的自我运动的方式,将经验主义对知识学的建构纳入人类精神自我认知之整全性思考的过程当中,成为其必要环节。面对今天人工智能的挑战,黑格尔式的对抗方式,在某种意义上只会为人工智能增添其必要的合理性。人工智能在技术的加速发展当中呈现出一种不以人的意志为转移的客观性,它正以其还原论式的话语体系吞并着“人本身”,在算法的可无限拓展的意义上将自身变成为统治世界的“绝对精神”。因此在笔者看来,我们或许应当借鉴康德的有限性的视角为人类理性划界,将人工智能严格局限在一种知性的规范之内,限定其还原论式的话语表述方式对人的全部特质的僭越,即用器官性的、数据化的算法来解读人的行为以及行为背后的意志自由。我们必须坚持马克思以人为轴心的技术观,将机器视为人延长的手臂,而不是将人视为机器功能实现的中介,任何一种试图颠倒这一关系的讨论方式都将人推入有待批判的异化的境遇。面对人工智能的挑战,我们需要做的是重新凸显“人的智能”的独特性,凸显其中所包含着不可被还原为数据信息及其相应算法的情感性、意志性的人之属性,而非将理论的重心放入到所谓人机界限模糊了的“后人类主义”当中,将诸如机械替换部分大脑机能之类的赛博格讨论推上理论的舞台,因为这样一种讨论方式不过是让“人的智能”屈从于“人工智能”的话语体系。它的本质其实是人工智能另一套不战而屈人之兵的方略。
(作者:夏莹,系清华大学哲学系教授)