首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2018年09月18日 星期二

    人工智能也会产生偏见

    《 文摘报 》( 2018年09月18日   07 版)

        偏见似乎是人类特有的一种现象,需要以人类的认知能力去对某个人或群体形成某种看法或成见。

        英国加的夫大学和美国麻省理工学院的计算机科学和心理学专家的一项新研究表明,人工智能有可能自行演化为心怀偏见的群体。这些新发现的依据是,计算机模拟了拥有类似偏见的个体或虚拟代理人如何形成一个群体并彼此互动。

        在一个平等交换游戏中,每个个体根据别人的名声以及自己的捐赠策略(包括对外来者的偏见程度),来决定是捐给自己所在群体中的某个人还是另一个群体中的某个人。随着游戏展开,一台超级计算机进行了数千次模拟,每个个体开始通过效仿自己所在群体或整个群体中的其他个体来学习新的策略。

        研究人员说:“通过成千上万次模拟显示,偏见是一种强大的自然力,通过演变,偏见很容易在虚拟人群中受到激励,不利于与他人构建更广泛的联系。来自偏见群体的保护会无意中导致个体进一步组成偏见群体,使得群体四分五裂。这种普遍的偏见很难扭转。”这一研究结果表明,个体会通过优先效仿短期收益更高的对象来更新自己的偏见程度,这意味着作出此种决定未必需要具备高级认知能力。

        研究人员认为,能够识别歧视和模仿他人的自动机器今后很容易受到我们在人类中看到的偏见现象的影响。

        (《参考消息》9.9)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有