近日,联合国教科文组织发表了一份题为《如果我能,我会脸红》的报告,批评目前大多数AI语音助手存在性别偏见,“因为它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象”。
报告对4家公司语音助手的调查显示,当听到用户的性骚扰言论时,语音助手的回应往往模糊且温顺。“这就暗示女性是乐于助人、温顺、取悦他人的,用户只需按下按钮,发出生硬的语音命令就可以了。”
这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。这也就意味着,“女性”AI可能强化人类社会的性别偏见。
其实,AI语音助手中性别偏见的问题并不是由算法本身造成的,而是产品设计者的选择,直接反映了人类自身的倾向。现实社会依然普遍对女性有着刻板印象,即通常认为女性是温和顺从的,有足够的耐心和理解力。
人工智能已经学会了人类“性别歧视”那一套,而这种偏见在其他领域中也充分展现。比如,职业平台LinkedIn通过复杂的人工智能算法向用户推荐工作时,多为男性求职者推荐高收入职业。
产品开发者严重的性别比例失衡也是产生“偏见”的一个原因。报告提到,在人工智能开发人员中,仅12%是女性。
报告建议,探索将语音助手的“性别”设置为中性的可行性;用户可根据需要更改智能助手设置等。过去“技术中立”的原则在人工智能技术这里行不通了,它有了自己的“价值观”。
(《中国科学报》6.18 韩扬眉)

上一版


缩小
全文复制
上一篇