首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2011年06月18日 星期六

    给机器人制定规矩

    《 文摘报 》( 2011年06月18日   03 版)

        “机器人三原则”

        上海交通大学机器人研究所最近完成了“助行机器人”的研发。这种像一部“智能小车”的机器人,能自己识别道路,自行确定行驶路线,带着行动困难或视力有障碍的人出行。

        但这款机器人真要实际应用,障碍还很多:它应该遵守什么交通规则?如果它发生了交通事故,该如何处理?上海交大机器人研究所常务副所长曹其新教授说:“这些问号已经让我们纠结了很久。”

        人类创造了机器人,但机器人一旦拥有智能,需要的就不仅仅是维护和修理,更得有规矩约束,要让它的想法和行为合乎人类世界的伦理道德。

        “研究机器人,都知道‘机器人三原则’——不能伤害人类,不能眼看人类将要遇到伤害而袖手旁观;机器人必须服从人的命令,除非这些命令与第一条原则相违背;机器人应该能保护自己,但与前两条原则相违背的情况除外。”德国汉堡大学多模式技术研究所所长张建伟教授告诉记者。

        有智能就复杂了

        随着智能机器人研发不断有新的进展,当机器人也会有想法时,问题就复杂了。

        比如伴侣机器人,当它成为了家庭一员,这些能自主学习、自己成长,能像人一样思考和做决定,而行动能力比人更胜一筹的家伙,需要遵守哪些规矩?机器人的伦理道德,逐渐成为学界关注的热点。

        韩国和一些欧洲国家表示有意制订“机器人道德法”,以此作为机器人研制者、使用者以及机器人本身的道德伦理规范和行为准则;它对机器人产业将有重大指导作用,“机器人道德法”的各项规定将编写成电脑程序,安装于机器人。

        还有科学家提出,人的大脑的某些部分如果损伤,今后可以用芯片修复;如果芯片对人脑原有“部件”的替换率达到一定程度,这样的人该怎么定义?“机器人道德法”对他们是不是也部分适用?

        但愿不要“亡羊补牢”

        中科院微电子研究所所长叶甜春说,就目前的技术水平来说,让机器人自己作伦理道德判断并不可行。现在的技术还只能对机器人发出非常明确的指示,而伦理道德显然是一种复杂判断、模糊判断,机器人还处理不了。

        随着技术快速发展和家用机器人出现,机器人的伦理道德我们必须关注,“千万不能等出问题了,再亡羊补牢”。

        (《文汇报》6.7 姜澎)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有