首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 养生
  • 女人
  • 文娱
  • 电视
  • 图片
  • 游戏
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    光明日报 2017年09月04日 星期一

    让“算法”遵循“善法”

    作者:田海平 《光明日报》( 2017年09月04日 15版)

        人工智能的蓬勃发展带来了人们在思想、生活和工作各方面全方位的变革。“人机大战”引发广泛关注的深层原因,在于它在文明史和人类史尺度上以一种仪式化的效应表征了一个时代的来临,即人工智能时代的来临。

     

    人工智能时代来临,人类应该如何行动

     

        从人工智能的主体结构看,无论“阿尔法狗”战胜人类顶尖棋手,还是“微软小冰”创作诗歌,抑或是IBM公司的超级机器人“沃森”跻身杏林、悬壶治病,它们目前充其量属于某种弱的人工智能,离真正的智能主体相去甚远。然而,这并不能消除一种日益滋长起来的恐慌性担忧:一旦人工智能大规模进入我们的生活,人类未来会怎样?斯蒂芬·霍金、史蒂夫·沃兹尼亚克、比尔·盖茨等发出警示说:人工智能可能是人类存在的最大威胁。埃隆·马斯克甚至说:“有了人工智能,就相当于我们开始召唤恶魔。”

     

        透过各种各样的“悲观主义—乐观主义”的观念对峙,我们看到,我们真正需要认真面对的问题是:既然认识到人工智能的时代已经到来,我们要如何行动才使自己成为未来的一部分?换言之,为了避免人工智能在唤醒万物的同时唤醒人类无法控制甚至最终控制或取代人类的“恶魔”,我们到底应该如何行动?笔者认为,这个问题的紧要处只有放在规范性的先行构建上,才能未雨绸缪。它涉及人工智能时代的道德建构问题,应从“人为自己立法”的规范性原理中产生。就形式方面而言,笔者将这种规范性的先行构建概括为一个基本原则,那就是:让算法遵循“善法”。因为“善法”的主体性总是与“目的”相关,而算法在总体上永远只能是达到目的的手段或工具而已。

     

        具而言之,作为人工智能时代的道德建构,让算法遵循“善法”的原则包含两个重要的伦理尺度:一是人工智能自身嵌入的道德,涉及人工智能带来的智能主体模式及其相关伦理尺度;二是人类在拓展人工智能的过程中进行的道德建构,涉及常见的人类主体模式以及人类主体与人工智能主体相处的“主体间”模式及其相关伦理尺度。

     

    “人工智能2.0”是否依系于“道德算法”

     

        第一个方面的伦理尺度与人工智能的智能主体或智能主体模式有关。人工智能通常的定义是:研究如何使计算机等机器能够做那些表现出人的智能的事情,其目标是使智能行为自动化。然而,就智能主体的类型而言,在机器中实现某些人类的智能的弱人工智能,与让机器自主地或自动地表现人类的智能的强人工智能,在强弱程度上是大不一样的。如果将前者记为“人工智能1.0”,那么后者就是“人工智能2.0”。目前的人工智能完全可以看作是从“人工智能1.0”到“人工智能2.0”的过渡,其实质是走向一场更深远的智能主体革命。

     

        在这个背景下,人工智能作为一种“自主智能主体的架构体系”,其主体性或主体结构,有点类似于我们将人脑的某些功能(或类似人脑的某些功能)移至机器之中。如果说人类主体性的生物学基础是“神经”,那么,人工智能的主体性是而且只能是对人类主体性的一种模仿。这种模仿的科学基础和展现形式就是“算法”。抛开人工智能主体在多大程度上类似于人类主体不论,研究者指出:使人工智能产品成为智能主体的关键要素是“道德算法”——即一种令自主性人工智能装置学会负责任行动的算法,它内嵌于人工智能的算法体系之中。那么,这是否意味着“人工智能2.0”的智能主体革命依系于道德算法呢?

     

        人工智能的主体模式在这个问题上面临伦理尺度上的重大挑战。以医疗和战场中的自主式机器人为例,当面临人类生命之生死抉择难题时,机器人应该如何做决定?当不当决定导致原本可避免的伤害发生时,那是谁的责任?在这个问题上,人工智能的主体模式虽然凸显了道德算法的重要性,但其更深层次且更为重要之依系,则无疑是人类为自己所立之“善法”。

     

    人工道德与算法遵循“善法”的道德形态

     

        第二个方面的伦理尺度与人类主体模式下的道德建构有关。目前赋予人工智能以道德能力的算法大致上有三种:一是通过语义网络扩增道义逻辑,形成义务与许可概念;二是通过知识图谱建立关联法则,侦测道德判断情境;三是通过云计算发掘相关关系,评估或预测行动后果。道德算法是嵌入在算法体系中有待完善的算法程式。它本身是在不断变化发展之中的,而非某种具体现存之物,也非某种一蹴而就或一劳永逸的终极预设。它作为一种人工建构,是一种通向“目的善”的“手段善”,因而依系于人类主体模式。在这个尺度上,算法只有体现或遵循人类主体模式下的“善法”,才能以有责任感的方式推进道德算法的进化及其在机器中的嵌入。这是人工智能时代的道德建构应遵循的基本原则,即算法遵循“善法”。在这一原则中,“善法”一词尽管抽象含混,其表征的人类主体性尺度在具体内容上也可能引发争论,但它在形式上则明确指向人类尺度上的两种道德形态。

     

        第一种道德形态由常见的人类主体模式主导,涉及人类在拓展人工智能时可能带来的所有伦理问题。特别说来,当人们把人工智能视为一种工具时,它的道德特殊性和道德重要性始终呼唤人类主体的道德责任之回归。这是一种单纯的规范性取向,即人类应该透过有责任感的方式筹划和迎接人工智能时代的来临。一种审慎的伦理表明,人工智能可能存在的最大威胁并非来自机器,而是来自人或人类的意图和行动。考虑到赋予机器人以道德能力的算法本质上是模仿人类道德的算法,如果人类在道德问题上不能获得明确性,以算法形式在机器中展现人类道德又如何可能呢?问题以悖谬方式彰显了人工智能内爆的道德形态建构。它以某种方式回应了美国人詹姆斯·摩尔对伦理智能主体应具备道德明确性的要求,即随着自主性的提升,具有自主道德能力的人工智能在面临道德两难的情境时,或者在面对不同道德原则冲突时,必须能够作出明确的合理化决策。这种对道德明确性的要求,反过来构造或描绘了人类尺度上的“善法”之特质,它倒逼人类主体模式尽一切可能走出可能会引发晦暗后果(甚至灾难)的各种道德模糊地带。

     

        第二种道德形态由人类主体与人工智能主体相处的“主体间”模式主导,涉及人类主体与智能主体之间依系关系的道德建构。这是一个新的领域。道德算法只有在“‘人—机’交互主体间”的反复博弈中,才能不断地矫正偏颇或错误,进一步升级和完善。自主性机器人可能会作出我们认为在道德上有错误的决定——例如被授权不为病患提供止痛药,再比如带有偏见的人工智能可能会自我强化从而损害社会。但是,这不应该成为人类拒绝机器人的原因,而应该成为机器人或人工智能在道德形态上得到改善和提升的契机。随着人类主体与人工智能主体之间的相互依系关系的建立,具备自我决策能力的自主机器人一旦在与人类主体的互动中学习从道德角度发展决策算法,那么避免伤害就成为人与机器相互依系的“善法”。

     

        (作者:田海平,系北京师范大学哲学学院教授)

     

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有