首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 养生
  • 女人
  • 文娱
  • 电视
  • 图片
  • 游戏
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    光明日报 2016年05月29日 星期日

    杀人机器人:危险不科幻

    作者:撰文 让-保罗·德拉艾 翻译 徐寒易 《光明日报》( 2016年05月29日 08版)
    图为科幻电影《终结者》中的金属机器人。CFP
    图为民众抗议杀人机器人的研发。资料图片
    图为美国的无人机。资料图片

        【纵深报道】

     

        2029年,人类和智能机器人之间的一场大战打响:机器人“终结者”奉命杀死约翰·康纳的母亲莎拉·康纳——这是由詹姆斯·卡梅隆于1984年创作的5部系列电影的序曲。科幻作家没有料想到,如今的科技已经可以制造出这样的机器人:它们一旦被授予使命后,会自发地做出杀人甚至暴动的决定。

     

        这些机器人杀手在国际军备讨论中有一个恰如其分的名字:LAWS(Lethal Autonomous Weapons Systems,致命性自主武器系统)。这种机器人已经登上了历史的舞台,将它们带到战场上会引起各种各样的争议:如何定义这些机器人?它们到底能做什么?战场上的伦理问题如何解决?

     

        1942年,著名的美籍俄罗斯裔科幻作家艾萨克·阿西莫夫在《惊奇科幻小说》中提出了机器人的伦理问题,他被世人视为机械伦理学之父。阿西莫夫在1942年出版的小说《转圈圈》中描述了机器人三定律。他提出,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器人的行为,让它们服从以保护人类为目的的强制性道德准则。

     

        ■阿西莫夫机器人定律

     

        第一定律:机器人不得伤害人类,或坐视人类受到伤害;

     

        第二定律:除非违背第一法则,否则机器人必须服从人类的命令;

     

        第三定律:在不违背第一及第二法则下,机器人必须保护自己。

     

        此后,阿西莫夫又添加了一条定律,即第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。

     

        机器人遵守这些定律而引发的困局是阿西莫夫所著500本书籍的主题。他严肃地思考了这些定律的意义,并想象了这些定律被采纳时发生的情形。然而时至今日,阿西莫夫关于机械伦理的设想并未如愿:如今的机器人并没有安装强制它们服从机器人定律的机制或指令。为什么会这样呢?

     

        ■无法服从机器人定律

     

        现在的机器人拥有的功能和人们当初设想的不太一样。科技并没有让我们凭空创造出和自己一样的东西,我们并不能像对待奴隶或佣人那样指使它们。机器人以及智能系统的产生并非一蹴而就,因为科技总是沿着意想不到的方向前进。这样一来,如何准确区分机器人和智能系统就变得十分棘手。

     

        驾驶飞机平安降落的自主系统能否称为机器人?它是否具有智能?我们很容易得出否定的答案。这个自主系统操作飞机的能力和人类飞行员一样好,而且对自己的方位了如指掌,所以才能让飞机准确降落。虽然它的功能很有限,但在降落飞机这项人命关天的任务上,它和人类相比毫不逊色。

     

        现代社会中机器人的工作非常专业化,它们不具备与人类用通俗语言交流的能力。我们无法要求它们遵守阿西莫夫的机器人定律,因为它们完全不能理解这些定律的意义。如果想要应用机器人定律,智能系统必须具备逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。但目前,机器人还不能进行这样的分析。

     

        美国iRobot公司的创始人罗德尼·布鲁克斯曾就上述问题直白地表达了自己的观点。媒体问他,为何iRobot生产的机器人不能自动遵守阿西莫夫定律,他回答,“理由很简单,我们根本没法把阿西莫夫的定律写入它们的系统中。”虽然未来的智能系统可能会随着科技的进步而发展出智力,并且智能系统中负责自主抉择的组件会获得性能提升,但这种机器智力和人类智力仍然不可同日而语。也就是说,科幻作家当初让机器人理解和服从阿西莫夫定律的希望,现在已经变成了一件异想天开的事。但是,这并非意味着讨论机械伦理问题就是多此一举。因为在自动驾驶领域,相关研发已经进行了许多年,多家公司设计的性能稳定的产品也将进入市场,因此讨论机械伦理问题的时机已经成熟。

     

        ■机器人的道德问题

     

        设想这样一个场景:一辆高速行驶的无人驾驶汽车前方,出现了一个追逐皮球而横穿马路的孩子,而逆向车道上有一个骑着自行车的成年人。此时,自动驾驶系统经过分析会有两种选择:一是减速但维持前进方向不变,这样有可能撞到孩子;二是减速并向左转向,这将会威胁到骑行者的安全。自动驾驶系统应该如何抉择?撞向孩子还是成年人?

     

        经常有媒体表示,自动驾驶汽车可媲美人类司机,这也是一些汽车制造商在标榜安全性时提到的新卖点。这种观点的受众范围很广,让我们很难在未来禁止自动驾驶汽车。在理想情况下,它们的反应和决策能力确实是无可挑剔的:它们能够根据预设的程序决定,到底是选择挽救追皮球的孩子,还是骑自行车的人。

     

        那么应由谁来制定机器人的道德规则?又该如何制定这种道德规则?要回答这些问题并不容易,但是不可避而不谈。如一些研究者证明的那样,在逻辑学家看来,有些道德问题的逻辑过于复杂甚至是不可判定的。

     

        现在的机器人没有被预装阿西莫夫定律的另一个原因是:我们制造某些机器人的目的就是为了杀戮。这已经变成了一个严重的问题,值得我们思考和讨论。

     

        人类制造用来杀戮同类的机器人已经有数十年的时间,而且只要“机器人”“自主性”和“杀戮”这个三个特性一同出现,情况就变得十分棘手。拿地雷举例,我们可以说它具有自主性,因为当它“觉察”到四周出现物体时会“决定”爆炸,而这个决定并不需要人类的许可。美国在许多战场上使用的无人机其实是远程遥控的,通常情况下,它们在投放武器前会等待操作员给出明确的指令。不过在执行对地打击任务时,它们同样造成了不小的伤害,夺取了许多无辜者的生命。一些无人机可以在自动模式下工作,自行决定是否开火,并不需要人类的干涉。

     

        在联合国于2013年发表的一份报告中,南非比勒陀利亚大学的法学教授克里斯托弗·海因斯认为,自主杀人机器人已经在一些国家的军方实验室诞生了,并且磨刀霍霍准备开始行动。毫无疑问,人类能够创造并利用具有部分智力的自主军事武器,把它们派遣到地面战场上或空中去搜索敌人。无须人类许可,它们就能自己辨认并消灭目标。就算我们假定在战斗决策中有人类存在,如果不对这些机器人自主性的深层概念进行调整的话,它们仍可以撇开人类独自执行任务。

     

        ■我们要往何处去?

     

        现在,我们需要回答的问题可归结为:我们是否真的希望在这条路上走下去?是否应该限制或者禁止使用自主杀人机器人?

     

        在为这些武器系统辩护的论据中,有两条关键的理由。首先,现在采取任何措施都已太迟,这些系统已经存在。其次,这些机器人终有一日会变得更为精准,它们会更加尊重平民和交战规则。总而言之,这些武器能够让战争和冲突变得更为“干净”。

     

        第一条论据可以被轻松反驳。人类已经制造出了核武器、化学武器以及细菌武器,但这不能阻止各国签订国际条约来管理和禁止这些武器。这些协议的签订有效限制了上述武器的使用。因此,各国政府可以协商一致,停止自主杀人机器人的研发。现在这个问题已被搬上了国际法庭进行讨论。

     

        第二条论据——杀人机器人可使战争变得更加“干净”是无效的。实际上,这条论据等同于将“只攻击敌人”“不要攻击平民”等道德准则强加给杀人机器人。然而,我们连怎样将阿西莫夫的机器人定律写入系统代码都做不到,这些道德准则更是无从谈起。

     

        或许,当我们研发出具备更加先进分析能力的机器人时,再重新考虑这个问题也不迟。但就目前而言,我们无法编写出类似于阿西莫夫机器人定律的道德规范。机器人需要有精确移动的能力,能够向人类或非人类目标快速而准确地开火,但它们不能决定是否开火,以及对谁投放致命的火力。

     

        一封发表在2015年7月的公开信得到了2万人左右的签名,签名者是人工智能领域的专家以及其他对此话题颇为关切的人,其中包括著名物理学家斯蒂芬·霍金以及苹果公司联合创始人史蒂夫·沃兹尼亚克。这封公开信要求停止研发具有杀人能力的自主系统,并表示这些系统可以被恐怖分子当作武器。

     

        自主杀人机器人的问题比其他类型的武器(如核武器)更严重,因为自主杀人机器人的技术研发比较分散。机器人是由众多程序和相对容易获取的硬件制造而成的。但是,其软件易于复制和传播,这与核武器完全不同。机器人技术领域的任何进步都有可能被最邪恶的恐怖分子盗取。

     

        ■机器人的反叛

     

        那么,如何避免程序漏洞,使得杀人机器人不会攻击人类?或许一行不巧被删掉的代码就能产生这样的漏洞,我们是否可以把机器人的这种行径视为反叛?这个问题和人类的追责机制类似。即使杀了人,精神病患者是不用负刑事责任的。因此,需要定义什么叫“机器人发疯”。最为可能的情况是,机器人出现了软件故障。机器人反叛的真正问题首先在于如何定义反叛,而想要给出这项定义却困难重重。如何区分愚蠢的故障和有意为之的反叛呢?

     

        美国康涅狄格大学著名机器人伦理问题专家苏珊·安德森提出,机器人造反实际上可能是正当的。在她看来,道德学巨匠伊曼努尔·康德就曾间接地讨论过智能机器人的问题。她重新审视了阿西莫夫的机器人定律:如果“机器人”有能力理解并实践机器人定律,那么我们是否有权将这些定律强加于它们,并要求它们成为人类的奴隶呢?

     

        苏珊·安德森指出,按照康德的观点,人类欠动物一份尊重,因为只有我们尊重它们,它们才会尊重我们。她认为依据同样的道理,如果康德也曾思考过机器人的问题,他可能会支持这样一种观念:如果有一天能够理解机器人定律的机器人真的出现了,那么我们应当尊重它们,向它们强加机器人定律也就无从谈起了。

     

        科幻作品以轻松愉快的方式处理了这些与现实相距甚远的问题,科学和哲学又迫使我们重新思考。我们亟须对目前已经出现的机器人进行公正的评估并采取相应的手段。这些复杂的评估任务包含了许多难解的伦理和哲学谜题,而其中一些迫切需要答案。哲学家、伦理学家、军方人士和软件工程师应当展开讨论并达成一致的意见。

     

        (作者为法国里尔第一大学计算机基础科学学院教授)

     

        本文由《环球科学》杂志社供稿

     

    光明日报
    光明日报(1985.01 - 2009.12)
    中华读书报
    中华读书报(1998.01 - 2010.08)
    文摘报
    文摘报(1998.01 - 2010.08)
    出版社
    考试
    博览群书
    博览群书(1998.01-2009.08)
    书摘
    书摘(1998.01-2009.08)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有