首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2019年04月18日 星期四

    给人工智能定个“道德准则”

    《 文摘报 》( 2019年04月18日   07 版)

        人工智能用于医疗出现误诊谁担责,是提供技术的公司,还是医院、或者是医生?

     

        自动驾驶汽车上路发生交通事故,责任在车主还是车辆生产方?

     

        并非所有人都有能力迈过技术性和社会性壁垒,未来会否出现“无用人群”?

     

        人工智能浪潮方兴未艾,正带来知识生产和利用方式的深刻变革。不过,对研究者来说,还有一件更重要的事儿——人工智能的伦理道德问题。

     

        当地时间4月8日,欧盟委员会发布了一份人工智能(AI)道德准则。

     

        该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现“可信赖人工智能”的7个要素。

     

        此前的草案为“可信赖人工智能”提出了一个官方解释:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”;其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。

     

        欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。

     

        加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”

     

        欧盟出台准则的背后,是人工智能不可忽视的挑战。

     

        在社交媒体中,人工智能将观点相近的人相互聚拢,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。这时候,人工智能就可能造成偏见强化,加剧社会分化与撕裂。

     

        人工智能的发展,让技术的垄断越来越严重。一方面这些技术给生活带来便利,另一方面也在某种程度上控制着人类的生活。

     

        在科学家看来,人工智能和其他技术特点不一样,很多人工智能技术具有自主性,如果没有适当的防范措施,一旦失控就不堪想象。“这就像在盖房子之前要先打好地基。不能等到出现了严重的问题,再制定措施去防止。”

     

        研究人员一直希望以最简单的办法,确保以机器人为代表的人工智能不给人类带来任何威胁。

     

        新的伦理原则制定也正提上各国政府的议事日程。尽管新原则各有不同,但突出以人为本的理念始终不变。显然,人工智能正帮助人类社会向充满不确定性的未来疾驰。在冲进未知之门前,需要给它装上安全装置,让它真正能行稳致远。

     

        去年,中国发展研究基金会发布报告《未来基石——人工智能的社会角色与伦理》中,就建议各国政府促进数据共享技术,为人工智能培训和测试提供共享的公共数据集。在个人信息得到保护的前提下,促进数据的自由流通;并加强国际合作,建立多层次的国际人工智能治理机制。

     

        欧盟委员会也表示,提出人工智能道德准则只是第一步,未来他们还将邀请工业界、研究机构和政府机构对该准则进行测试和补充,最终制定以人为本的人工智能共识。

     

        (《工人日报》4.11 赵晓展)

     

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有