【鸣镝】
互联网、大数据以及人工智能等数字技术在为人类增加福祉的同时,也可能带来人权的负面影响,尤其可能对在种族、性别、年龄等方面处于弱势地位的特定群体造成不成比例的人权损害。美国拥有全球最先进的数字技术,却不仅没能为其解决种族问题带来契机,反而进一步复制、强化甚至加剧了其系统性和结构性的种族歧视。
以种族为坐标的数字鸿沟和技术障碍
美国虽然在全球数字经济中占据主导地位,但少数族裔从新兴数字技术中获益的机会却低得令人难以置信。根据美国联邦通信委员会的数据,2016年,约41%居住在部落的土著美国人无法获得视频会议等活动的互联网服务。皮尤研究中心2019年的一项调查显示,在美国,非洲裔和西班牙裔拥有电脑或拥有高速互联网的比例仍然较低。大约有82%的白人表示拥有台式电脑或笔记本电脑,但拥有电脑的非洲裔和西班牙裔只有58%和57%。在宽带使用方面也存在巨大的族裔差异,白人家里有宽带连接的比例比非洲裔和西班牙裔高出13%到18%。
被广泛应用的面部识别技术本身也隐含了种族歧视的因素,许多能够成功识别白人面孔的算法却无法正确识别有色人种。2019年,美国国家标准与技术研究院发布了一份报告,显示了全球99名开发人员提交的189种人脸识别算法在识别来自不同人口统计数据中的面孔时的表现。测试显示,与白人相比,无法准确识别非洲裔或亚裔人脸照片的可能性高出10至100倍。在搜索数据库以查找给定的面孔时,非洲裔女性显示错误的比例明显高于其他人口。
社交媒体传播仇恨言论和种族主义
新兴数字技术为快速和大规模传播种族主义、仇恨言论与煽动歧视暴力的言论提供了渠道,而社交媒体平台在其中发挥着关键作用。自2014年以来,美国的仇恨团体数量增加了30%,仅2018年就增加了7%。根据美国南方贫困法律中心2019年的统计,在美国查明有1020个仇恨团体。据美国反诽谤联盟的监测报告,美国2018年的白人至上主义宣传事件数量为1187起,比2017年的421起增加了182%。仇恨团体在世界各地以“种族纯洁”和种族优越感为名对少数族裔实施恐怖袭击和杀戮,包括2018年在美国匹兹堡发生的反犹太主义袭击。2018年,新纳粹和其他白人至上极端主义团体在加拿大和美国造成至少40人死亡。这些种族仇恨团体经常利用社交媒体平台寻找志同道合的个人,相互支持,并传播他们的极端思想。此外,仇恨团体也越来越多地渗透到了“游戏”世界。电子游戏和与游戏有关的论坛、聊天室和直播流媒体网站已成为最主流的新纳粹招募场所。
算法系统重复并强化种族偏见
首先,算法系统可能在工作权方面加剧种族歧视。联合国特别报告员在2020年的报告中指出,在美国一些用于招聘的算法因其具有歧视性而受到批评。此类算法系统根据现有“成功”员工的数据库来确定候选人,而数据库包括性别、族裔或宗教信息。因此,算法系统作出的决策即反映出就业中现有的不平等现象,重复并强化了基于种族、性别等的偏见。
其次,新兴数字技术也对少数族裔的健康权产生了歧视性的影响。一篇发表在《科学》杂志上的研究发现,美国医疗保健系统使用商业算法来指导超过2亿人的医疗服务健康决策,对非洲裔患者实施了系统性的歧视。由于输入数据中没有“种族”选项,开发者认为该算法是“不分种族”的,但对于与白人患病程度相当的非洲裔患者,该算法始终给予其较低的风险分数,未能识别出将近一半与白人患者同样有可能产生复杂医疗需求的非洲裔患者,导致他们无法参与改善健康的干预项目。
最后,定向广告中的种族歧视侵犯少数族裔的住房权。控制着美国22%数字广告市场份额的社交媒体网站脸书,过去允许广告商在其广告定位工具的“人口统计”类别下排除具有某些“族裔亲缘关系”的用户来“缩小受众范围”。这种定向广告可以用来阻止非裔、亚裔或西班牙裔观看特定的住房广告。这种“只限白人”的广告,不禁让人联想到在种族隔离合法化的吉姆·克劳时代,那时报纸为广告商提供只向白人读者投放广告的选项。
预测性警务技术导致严重的种族歧视
2016年8月31日,由17个组织组成的联盟发表了关于美国执法部门使用预测性警务工具的声明,指出该技术缺乏透明度,带有种族偏见以及其他导致不公正的深刻缺陷。预测性警务是指通过评估有关人员的数据,例如他们的年龄、性别、婚姻状况、药物滥用史和犯罪记录,预测其参与犯罪活动的可能性。
洛杉矶警察局率先使用预测性警务技术公司开发的算法工具,纽约和芝加哥警察局随后创建了一个“热名单”,其中包含根据人口统计数据犯有枪支犯罪的“战略主体”逮捕历史和社交媒体细节。预测性警务工具的工作方式缺乏透明度,警察局普遍不愿意透露算法的工作原理。这使得这些算法成为“黑匣子”,无法被任何外部人士审计或评估。到2019年,该系统已为超过40万人分配了“高风险”评分,并被视为预防暴力犯罪的主要手段。预测性警务工具会产生严重的歧视性犯罪预测错误,据美国司法部2020年的数据,非洲裔被警察在没有正当理由的情况下拦住的可能性是白人的5倍,被捕的可能性是其两倍。美国的预测性警务工具使用种族作为预测因子,通过将警察派往他们以前监管过的地方来复制和加剧警务中的偏见,增加了对非白人社区的过度监管。既有数据集反映着现有的种族偏见,因此尽管这些技术被假定具有“客观性”,甚至被认为有可能减轻其所取代的人类行为体的偏见,但其运作反而加剧了种族歧视。警察部门在少数族裔居民为主的贫困社区往往会更多使用预测性技术。预测性警务创造了“巨大的结构性偏见”,通过包含种族歧视的算法,个别警官的偏见已被数据驱动的结构性偏见所取代。
数字技术增加刑事司法系统中的种族歧视
新兴数字技术延续和复制了刑事司法中的种族歧视性结构。从预测性警务到预测累犯,执法机构和法院都在依赖算法工具,使长期存在的种族歧视更加固化,整体上削弱了少数族裔的人权,并强化了他们在社会中遭受的结构性压迫。美国有几个州在刑事司法程序的每一步都使用人工智能风险评估工具。开发人员希望这些系统能够提供客观的、基于数据的司法结果,但是这些算法通常依赖的是存在缺陷、种族偏见甚至非法政策时期产生的数据。由于这些算法影响判决,它们侵犯了少数族裔获得公平审判的权利以及免受任意逮捕和拘留的权利。这种风险评估权衡的因素通常包括先前的逮捕和定罪记录、父母的犯罪记录、邮政编码和所谓的“社区混乱”。这些因素反映的是在有色人种社区的过度监管和执法行为以及种族制度导致的更广泛的社会经济劣势模式,而不是目标人群的行为。换言之,数据更能预示被告所在社区的种族劣势和警力分布,而不是其个人的行为。非洲裔被告被确定为未来暴力犯罪风险较高者的概率比白人高出77%,预测未来可能犯下任何类型犯罪的可能性高出45%。
预测累犯的工具也是同样。在美国的系统中,嫌疑人被捕后通常会得到一个分数,目的是预测他们未来犯罪的可能性。最常用的系统COMPAS提供的风险评估评分被用在刑事司法程序的每个阶段。一项调查显示,该系统存在明显的种族偏见,它错误地将非洲裔被告标记为未来的罪犯,这一比例几乎是白人被告的两倍。与此同时,白人被告则常被误认为风险较低。由于这些评分标准固有的偏见,犯罪嫌疑人即使无辜也会认罪的现象并不罕见。
纽约城市大学教授杰西·丹尼斯一针见血地指出,数字技术的语言是美式英语,网络技术中充满了美国式的规范,赋予美国科技行业不成比例的经济和政治权力,并在各种类型的全球跨国公司中产生巨大影响力,通常反映了美国的帝国主义和白人至上主义的意识形态。普林斯顿大学教授鲁哈·本杰明在《技术背后的种族:新吉姆守则的废奴主义工具》中指出,算法黑箱将所谓的种族中立技术与法律和政策相联系,成为白人至上主义的有力工具。美国应正视自身种族歧视的系统性和结构性缺陷,积极应对数字技术带来的治理挑战,采取迅速有效行动,防止和减少在新兴数字技术使用和设计中产生种族歧视风险,加强算法问责。
(作者:唐颖侠,系南开大学人权研究中心副主任)