从ChatGPT的万能问答到Sora的文生视频,通用人工智能正在由科幻转化为现实,如此迅猛的发展带来新技术突破和产业变革的同时,所引发的安全风险也对监管和治理提出新要求。
世界范围内,各主要经济体酝酿多年的人工智能立法实践将在2024年陆续进入成熟期。当地时间5月21日,欧盟理事会正式批准《人工智能法案》。外界普遍认为,作为全球首部全面的人工智能法规,欧盟《人工智能法案》实施后将对全球人工智能产业链产生深远影响。
总体上,《人工智能法案》在适用范围、人工智能系统风险分级管理、通用人工智能模型管理、执法与处罚等方面,为整个人工智能产业链上的相关方提供了一个合规义务框架。具体而言,法案从多个维度界定了适用范围。适用对象包括与欧盟市场有连接点的人工智能系统提供商、使用商、进口商、分销商和产品制造商。广泛的域外适用效力确保了所有在欧盟经营的市场参与者必须遵守相同的条件。
法案按照人工智能系统对用户和社会的潜在影响程度将其分为4类:不可接受风险类、高风险类、有限风险类、最小风险类。风险等级越高,管控越严格。构成不可接受风险的人工智能系统,如为唆使犯罪而利用人工智能技术操纵人的潜意识、将人脸识别等生物识别技术实时应用于犯罪搜查等,是被禁止的;高风险人工智能系统,须对其风险进行评估,并确保其受到人为监督。多数人工智能系统属于风险较低的类别,但仍可能需要根据法案要求履行相应义务。
违反法案的处罚结果将取决于人工智能系统的类型、公司的规模和违法行为的严重程度。法案规定,如涉足“禁止”领域,相关方会被处以3500万欧元或全球年销售总额7%的罚款,以较高金额为准。如未履行除“禁止”以外的其他风险分类中的义务,则根据相关方业务规模等处以1500万欧元或最高不超过全球年销售总额3%的罚款。
然而,有反对者认为,这份法案太过严苛。欧盟的超前和过度监管可能会进一步造成欧洲人工智能产业落后的局面,诸多事前监管环节都将影响人工智能的开发进程。
国际社会指出,欧盟《人工智能法案》为全球应对人工智能风险提供了一些思路,但并不代表是全球通用规则。未来欧盟和各国政府还需要继续加强对于人工智能技术的监管和研究,以确保其安全、合规地服务于人类社会。
(《法治日报》6.3 王卫)