优步公司在英国又摊上事儿了。事情大致上是这样的:公司要求员工把自拍照上传到人事系统,与系统存储的参考照片进行匹配。如果匹配不成功,那么系统会提示员工实时自拍,并面临解雇风险。两位员工因此被解雇。
这本是一起普普通通的劳资纠纷。然而,据一些技术人员和相关组织称,“面部识别系统天生就有缺陷,对有色人种进行识别时准确度会变得很差”。这让事件性质立刻升级到了“种族歧视”的高度。
其实,人工智能面部识别系统对有色人种的识别精度不佳,不是新问题。2015年,谷歌就闹过笑话。一名黑人软件开发人员在Twitter上说,谷歌照片服务把他和一个黑人朋友的照片打上了“大猩猩”的标签。当时有人发难,指责谷歌“种族歧视”。但谷歌不大可能是故意为之。最终的“受害者”可能是猩猩,因为谷歌的应对措施是把“猩猩”和其他灵长类动物的标签移除了,“猩猩”在“谷歌宇宙”中成了“查无此人”的黑户。
人工智能的识别误差能不能被视为“种族歧视”呢?这就涉及误差产生的原因。人工智能是在特定模型下自我学习形成算法的,训练模型所依据的数据集和模型本身的设计都有可能带来偏差。哪怕是细微偏差,人工智能的海量运算也会将其放大到失真的程度。这样的问题在现有的技术条件下并不罕见。造成“有色人种面部识别率误差大”的技术因素甚至更为单纯——光学现象。“黑人”的肤色偏黑,吸收了更多的光,造成了识别困难。
(《南方周末》10.14 关不羽)