所谓黑箱是对算法自动化决策过程的一种隐喻描述,表示其内部运行是神秘的,即难以确定算法技术是如何在大数据基础上做出决策或预测。算法的这种不透明主要给平台从业者权益保护带来以下几方面风险。
(一)个人信息权益风险 由于自动化决策需要大量数据作为支撑,平台企业在日常用工管理中需要不断地借助软件处理使用者的各种信息,其中既包括必要的、与工作相关的个人信息,也会涉及使用者的个人隐私信息,如个人健康信息、生物特征信息、地理位置信息等。如果制度缺乏对工作场所数据处理的监管与限制,则难以保障平台企业信息处理的透明,平台从业者将面临个人隐私与个人信息权益被侵害的风险。
(二)隐蔽劳动控制风险 第一,劳动关系识别困难。算法控制方式具有隐蔽性,平台企业通常表面上给予平台从业者较大的用工自由度,并借此将自身定位为信息中介平台。然而有观点认为,算法使平台从业者实质上处于平台企业的数字控制之下,工作自由是一种虚假的表象。因此,这种隐蔽控制对平台用工法律关系的认定造成困难。
第二,劳动安全风险问题。平台企业使用算法进行日常的用工管理,能够快速高效地匹配用工需求,降低交易成本。然而,如果算法在设计和运用过程中缺乏对现实环境、个体差异以及权益保障的考量,过度追求匹配劳务供需的高效性,设计以高绩效为目标的奖惩体系,以此最大化地激发自由接单模式下劳务提供者的工作积极性,容易产生劳动安全相关问题。
(三)就业歧视风险 算法系统在开发与设计时应基于公平的原则,这样其自动化决策就有助于反歧视的实现。然而,事实并非绝对如此。一旦自动化决策系统基于种族、民族、肤色、地域、性别等因素,出现不合理的差异化待遇结果时,便会产生歧视问题。此外,平台用工算法内在的消费者评分系统也会包含消费者对于性别、种族、国籍等的偏见,从而对平台从业者的工作评价产生歧视后果,影响其工作待遇。
因此,立法与执法亟需落实算法透明规则,以消除算法黑箱的负面影响,促进平台用工的健康发展。
(《清华法学》2025年第1期 班小辉)