首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2019年06月25日 星期二

    人工智能已“学会”性别歧视?

    《 文摘报 》( 2019年06月25日   07 版)

        近日,联合国教科文组织发表了一份题为《如果我能,我会脸红》的报告,批评目前大多数AI语音助手存在性别偏见,“因为它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象”。

     

        报告对4家公司语音助手的调查显示,当听到用户的性骚扰言论时,语音助手的回应往往模糊且温顺。“这就暗示女性是乐于助人、温顺、取悦他人的,用户只需按下按钮,发出生硬的语音命令就可以了。”

     

        这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。这也就意味着,“女性”AI可能强化人类社会的性别偏见。

     

        其实,AI语音助手中性别偏见的问题并不是由算法本身造成的,而是产品设计者的选择,直接反映了人类自身的倾向。现实社会依然普遍对女性有着刻板印象,即通常认为女性是温和顺从的,有足够的耐心和理解力。

     

        人工智能已经学会了人类“性别歧视”那一套,而这种偏见在其他领域中也充分展现。比如,职业平台LinkedIn通过复杂的人工智能算法向用户推荐工作时,多为男性求职者推荐高收入职业。

     

        产品开发者严重的性别比例失衡也是产生“偏见”的一个原因。报告提到,在人工智能开发人员中,仅12%是女性。

     

        报告建议,探索将语音助手的“性别”设置为中性的可行性;用户可根据需要更改智能助手设置等。过去“技术中立”的原则在人工智能技术这里行不通了,它有了自己的“价值观”。

     

        (《中国科学报》6.18 韩扬眉)

     

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有