一位长期受慢性肺病折磨的病人3月初住进了美国加利福尼亚州弗里蒙特一家医院急诊科。初步诊断后,一名机器人在重症监护室对病人进行了随访。机器人告诉病人,他将无法返回家中接受临终关怀,但是他可以在医院使用吗啡来减轻痛苦。这意味着,一名机器人给病人下了“病危通知书”。入院4天后,病人死亡。
由一名机器人来给人类下“病危通知书”,病人的家属不敢相信也无法接受,于是将他们的愤怒在媒体上公开了。从这个案例看,家属质疑的并不是机器人的能力——事实上机器人对病情的判断是准确的。那么问题究竟出在哪里呢?
大家还记得电影《我,机器人》开头吗?两辆车掉进水里,机器人需要做一个选择,是先救警探还是孩子。最终机器人救了警探,因为它计算出警探有45%的生还机会;而孩子只有11%的生还机会。
在加州医院的案例中,家属也没有质疑机器人的诊断能力,而是从价值观上,他们不能接受“冰冷”的机器人给病人判了“死刑”。
机器人给病人下病危通知,机器人选择先救警察而不是小孩,引发人类担心的根源,首先是因为机器人没有伦理道德。我们的担心,其实就是机器人可能引发一系列伦理风险问题。
还有担心机器伤害人类的问题,其实是另外一层的冲突:法律冲突。机器人给病人下病危通知,有没有法律效力?机器人能够成为承担责任的主体吗?既然机器人不能够成为承担责任的主体,反过来是不是可以理解为,机器人其实无权给病人做出诊断?或者我们需要在机器人不能承担责任的情况下,设计出追究相关人的法律责任的制度?
(《深圳商报》3.14 蒋荣耀)