首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    文摘报 2021年10月21日 星期四

    人工智能会“种族歧视”吗

    《 文摘报 》( 2021年10月21日   03 版)

        优步公司在英国又摊上事儿了。事情大致上是这样的:公司要求员工把自拍照上传到人事系统,与系统存储的参考照片进行匹配。如果匹配不成功,那么系统会提示员工实时自拍,并面临解雇风险。两位员工因此被解雇。

        这本是一起普普通通的劳资纠纷。然而,据一些技术人员和相关组织称,“面部识别系统天生就有缺陷,对有色人种进行识别时准确度会变得很差”。这让事件性质立刻升级到了“种族歧视”的高度。

        其实,人工智能面部识别系统对有色人种的识别精度不佳,不是新问题。2015年,谷歌就闹过笑话。一名黑人软件开发人员在Twitter上说,谷歌照片服务把他和一个黑人朋友的照片打上了“大猩猩”的标签。当时有人发难,指责谷歌“种族歧视”。但谷歌不大可能是故意为之。最终的“受害者”可能是猩猩,因为谷歌的应对措施是把“猩猩”和其他灵长类动物的标签移除了,“猩猩”在“谷歌宇宙”中成了“查无此人”的黑户。

        人工智能的识别误差能不能被视为“种族歧视”呢?这就涉及误差产生的原因。人工智能是在特定模型下自我学习形成算法的,训练模型所依据的数据集和模型本身的设计都有可能带来偏差。哪怕是细微偏差,人工智能的海量运算也会将其放大到失真的程度。这样的问题在现有的技术条件下并不罕见。造成“有色人种面部识别率误差大”的技术因素甚至更为单纯——光学现象。“黑人”的肤色偏黑,吸收了更多的光,造成了识别困难。

        (《南方周末》10.14 关不羽)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有