首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    光明日报 2024年08月29日 星期四

    人工智能自动驾驶,法律责任怎么算

    作者:刘俊杰 刘思聪 《光明日报》( 2024年08月29日 14版)

        光明图片/视觉中国

        光明图片/视觉中国

        光明图片/视觉中国

      当前,新一轮科技革命和产业变革正在重构全球创新版图、重塑全球经济结构,各种新的生产生活场景不断涌现,技术发展的不确定性给人类社会带来许多新的问题。自动驾驶就是人工智能与传统汽车行业结合后产生的新技术,该技术旨在依靠人工智能完整、安全地满足无驾驶员操作情况下的汽车交通运输需求。进入21世纪,人工智能自动驾驶技术飞速发展,近年来已有加速落地实用的趋势。与之相应,事关人们切身利益的交通事故责任认定与分配,仍是自动驾驶有待探索和规范的社会生活场景,尚需各国在自动驾驶产业发展过程中共同面对。

    1·人工智能并非法律上的“人”

      在自动驾驶中,人工智能把人们的身体和注意力从驾驶操作中解放出来。根据智能化程度高低,自动驾驶汽车将不同程度地代替人们操纵汽车。国际自动机工程师学会制定了一套自动驾驶分级标准,将自动驾驶按照自动化程度划分为五个等级:L1是部分驾驶辅助汽车,驾驶员和自动驾驶系统需要共同承担车辆操纵任务;L2是组合驾驶辅助汽车,系统能够承担车辆的一般行驶任务,但需要驾驶员随时观察行驶过程中的周边环境并作出响应;L3是有条件自动驾驶汽车,自动驾驶系统能够承担车辆的一般行驶任务并响应周边环境,但仍需要驾驶员根据情况动态接管车辆;L4是高度自动化汽车,无需驾驶员承担任何操作任务,但需要在特定的设计运行条件下如指定的公路范围内运行;L5是完全自动驾驶汽车,自动驾驶系统将承担一切驾驶任务,驾驶员变为乘客。

      一般认为,人工智能分为弱人工智能和强人工智能。弱人工智能指的是通过编程实现机器的逻辑判断、数据存储和搜索等过程的智能,如常见的语音助手和图像识别;强人工智能指的是使机器能够产生思维意识,并具有与人类相当甚至超过人类的智能。在本质上,弱人工智能与其他工具没有什么区别,只是按照程序设计人员的设定对外界信息进行判断、计算并运转;而强人工智能产品则更进一步,能够实施所设计和编制的程序范围之外的行为,甚至能够自我学习,其行为是相对独立、不受操控的。据此标准,可以将L3及以上的自动驾驶等级视作人工智能自动驾驶,其中L3、L4是弱人工智能,L5是强人工智能。

      从理论上来看,无论是弱人工智能,还是强人工智能,都未超出计算机科学的范畴,不能算是法律上可以归责的“人”。通常认为,要成为法律上的责任主体,相应主体必须具备自由意志,并能认识行为及其后果的法律意义,能够承担责任。固然,当前人工智能的发展极其迅速,但仅仅是具备根据程序设定发展出来的数据储存、检索和优化能力,不能算作具备自由意志,也并不能认识理解行为及其后果的法律意义。例如欧洲有学者就认为,目前的这些智能机器并没有具备道德思考和道德决定的能力。即使强人工智能具有类人类的认识和控制能力,但它仍然不过是根据人类设定的程序来完成任务的机器。

      从实践上来看,人工智能也并非各国法律规定的可以行使权利、履行义务和承担责任的主体。在大陆法系国家,成文的法典限定了民事主体范围。如德国民法典将民事主体规定为自然人、消费者、经营者和法人四类,日本现行民法只将人和法人作为民事主体,俄罗斯联邦民法典同样只将公民(自然人)、法人规定为民法上的人。在以判例法为特征的英美法系国家,如美国、英国,尚未有将人工智能作为民事主体的诉讼案例出现,且在实践中否定了人工智能的民事主体地位:2020年,英国萨里大学研究人员在使用人工智能DABUS进行研究的过程中,DABUS提出了两项独特的设计创意,然而欧盟专利局却驳回了研究人员以DABUS名义提出的专利申请,理由是专利发明者必须是人而非机器。就刑法的犯罪主体而言,虽然人工智能带有一个“人”字,但是在各国刑事法律体系和实践中,还没有被当作刑事责任主体的先例,目前仅停留在学术探讨的层面上。

    2·自动“行车”,亦有“刑责”

      未来人工智能自动驾驶的技术取向,在于逐步减少直至取消人的控制因素,从而达到提高效率、节省成本、减少损失的目的。随着驾驶自动化程度从L3到L5等级的提高,对人们而言,驾驶车辆所需要的驾驶技术要求是逐步降低的。可以想象,在L5完全自动驾驶状态中,驾驶员实际的角色是乘客——只需要坐上去,然后做好在目的地下车的准备。问题在于,既然人工智能不是法律可以苛责的对象,那么一旦发生交通事故,法律上的不利后果应当由谁来承受?如果是驾驶员承担,那驾驶员又应该负多大的责任?德国学者希尔根多夫将这一问题称为“控制困境”。

      现有L3以下的自动驾驶技术部分减少了人对车的操作责任,但是驾驶员仍需为交通事故承担刑事责任。自动驾驶虽使人们免于操作机械,但从过往案例来看,各国司法实践主要持驾驶员负主要责任的立场,采取驾驶员应当负有注意和介入义务的观点,免除了车辆厂商及其自动驾驶系统技术的责任。例如,2019年12月29日,一辆黑色特斯拉Model S在美国洛杉矶郊区发生一起严重事故。当时,驾驶员利雅得开启了L2级自动驾驶系统,从当地一条高速路驶出,在公共开放道路上闯了一个红灯后撞上另一辆小轿车,导致这辆小轿车上的两名乘客当场身亡。在该案中,检察官以“过失杀人罪”和“交通肇事杀人罪”对利雅得提起了两项罪名指控,而特斯拉轿车和自动驾驶系统经调查不存在任何问题,无须承担责任。

      在全球首例L3以上高度自动驾驶车辆致人死亡案件中,车上的测试人员也承担了刑事责任。2018年3月18日,美国亚利桑那州一辆载有安全员的自动驾驶车辆在测试中以70公里时速撞上一名过马路的妇女并致其死亡,当时这辆车正处于L4驾驶状态。本案历时五年,优步公司最终未承担任何刑事责任,安全员拉法埃拉·瓦斯奎兹被指控过失杀人,被判处三年监督缓刑,成了全球第一位因自动驾驶事故被判有罪的人。美国国家运输安全委员认为,优步公司的系统未能及时识别前方物体及其行动轨迹是重要因素,但安全员在履职期间观看手机上的娱乐节目导致分心以至于没有及时制动车辆才是事故发生的主要原因,因此车祸主要原因在人而非技术。

      不过,相较于传统驾驶中的刑事责任,人工智能自动驾驶车辆中的驾驶员责任需要减轻。法律责任往往与行为挂钩,有相应的行为才需要承担相应的责任。随着人工智能自动驾驶技术的进步,驾驶员的驾驶功能逐步被代替,其法律责任势必相应减轻。例如,日本有学者就认为,从人工智能系统与人的关系出发,在自动驾驶系统完整承担一次行程驾驶任务的情况下,驾驶员不应负有任何注意义务,因此也不应承担任何法律责任;如果自动驾驶系统只是在途中承担一段的驾驶任务,那么驾驶员仅在自己驾驶的阶段负有注意义务。瑞士和德国有学者也指出,虽然从现行法律来看,驾驶员在L4及以上的自动驾驶状态下均应当履行对车辆的支配义务,但总的来说其义务应与自动化程度成反比;与自动驾驶车辆带来的好处相比,将事故产生的刑事法律责任完全落在汽车的操作者身上是不公平的,建议对汽车操作者的刑事责任进行限制或减轻。

    3·交通事故悲剧发生,谁来买单

      2023年4月21日,海外首例自动辅助驾驶事故民事索赔案宣判。美国洛杉矶高等法院陪审团裁定特斯拉公司的自动辅助驾驶功能的安全气囊在事故中并未失去安全性能,不支持原告提出的巨额赔偿诉求。后者在2020年提起诉讼,称她的特斯拉轿车在自动驾驶状态下失控转弯撞向路边后,由于自动驾驶仪和安全气囊的设计存在缺陷,导致自己的颌面和面部神经受伤受损,要求法院支持其超过300万美元的赔偿诉求。陪审团认为,特斯拉用户手册已明确提示自动辅助驾驶功能不是自动驾驶系统,并提醒不要在城市街道上使用该功能,事故主要是因为司机分心。诉讼风云散去后,留下了一个值得讨论的问题:随着未来自动驾驶系统等级的逐步提高,自动驾驶车辆生产厂商是否应对交通事故承担民事责任,以及应该在什么限度内承担责任?

      在L3以下的自动驾驶交通事故中,人工智能不担责,驾驶员不能担全责,则厂商对可能存在的过失应当担责。如果人工智能不能成为被法律惩罚的对象,而驾驶员的责任又需要减轻,就极容易造成民事赔偿责任方的缺位,交通事故导致的侵权就无法得到合理补偿,因此车辆厂商需要成为责任方之一,对系统和硬件可能存在的缺陷以及产品宣传可能产生的误导负责。在实践中,同样以2018年优步测试车辆致死案为例,虽然安全员已经认罪,但美国国家运输安全委员会仍建议优步公司与安全员共同承担民事赔偿责任。在联邦制的美国,统一的自动驾驶法还在制定当中,目前是各州自行制定相关法律。例如,华盛顿特区要求驾驶员应做好随时接管自动驾驶汽车的准备,并明确了制造厂商对产品缺陷的责任;田纳西州规定,在自动驾驶系统受控制的情况下,均由制造厂商承担责任;加州要求制造厂商购买数百万美元的保险以应对自动驾驶交通事故造成的损害;不过,也有少数州排除了厂商的责任,例如得克萨斯州法律规定车辆所有人应对事故和交通违法行为负责。又如,英国交通部发布的《安全使用自动车道保持系统:回应和后续步骤》规定,当自动驾驶车辆处于正常的自动驾驶状态时,驾驶员不需要负责,只要求其在紧急时刻介入操控,这意味着责任将转移至制造厂商和保险公司。此外,2020年德国慕尼黑法院曾裁定特斯拉在广告中存在夸大宣传其辅助驾驶系统、误导消费者认为这是高度自动驾驶功能的行为,禁止其使用“包含自动驾驶”等宣传用语。

      从全球立法前沿来看,未来L3及以上更高等级的自动驾驶车辆投入商用后,制造厂商也不能因人工智能更加自主而免除民事责任。因为人工智能归根到底是由人开发出来的,无论发展到什么程度,开发者都需要对它可能存在的缺陷负有完善和改进的义务,并且对缺陷造成的损害承担一定的责任。如日本《自动驾驶相关制度整备大纲》中虽规定,L3级驾驶状态发生事故时的责任按普通汽车同等处理,但车辆和驾驶系统存在明确的缺陷之时生产商需要负责。德国《自动驾驶法》规定,事故如果发生在人工驾驶阶段,则由驾驶人承担责任;如果发生在自动驾驶阶段,或由于系统失灵酿成事故,则由生产厂商承担责任。韩国修订后出台的《汽车事故赔偿法》规定,L3级自动驾驶汽车事故的主要责任人是驾驶者;如果自动驾驶车辆有明确的缺陷,则由制造厂商负连带责任。2022年,英国多个法律监管机构发布的联合报告建议,自动驾驶汽车在自动驾驶状态下发生交通事故时,车辆驾驶员不承担任何因交通违法导致的责任,由自动驾驶技术研发企业或车辆制造厂商对交通事故承担法定责任。

    4·新兴技术更需向善治理

      人工智能造福人类交通运输出行的时代浪潮已势不可挡。自动驾驶汽车的研究从20世纪就开始了,得益于近十年人工智能技术的发展,才取得质的突破。早在2012年,美国谷歌自动驾驶汽车就获得了许可证;2020年,韩国发布L3级自动驾驶安全标准并制定商用化标准,这是全球首例;2021年12月10日,德国联邦汽车运输管理局允许L3级自动驾驶汽车在德国全境的高速公路上行驶;同年日本发布的《官民ITS构想·路线图》重申,到2025年,私家车、卡车运输实现高速公路L4级自动驾驶……人工智能自动驾驶的未来已近在眼前。

      新兴领域更需要向善向上的法律规则治理。与技术发展进步和落地应用的速度相比,所相适配的社会伦理、道德规范的建立往往相对滞后,这就更需要以良法善治规范和保障新技术健康发展,确保新技术在合理的制度框架内服务于人类对美好生活的追求和向往。中国提出的《全球人工智能治理倡议》值得自动驾驶的法律治理借鉴和遵守,包括坚持“以人为本”理念、坚持“智能向善”的宗旨、推动建立风险等级测试评估体系、逐步建立健全法律和规章制度等。面向人工智能时代,更好处理自动驾驶带来的交通事故及其责任需要注意以下三点:

      首先,驾驶员承担的责任应逐步减少。技术在解放生产力的同时也在解放人类,人们在法律上的权利义务应当随着技术的进步而适时变化,自动驾驶技术在逐步解放人类的肢体和注意力,那么驾驶员的交通事故责任认定宜根据自动驾驶的自动化智能程度之提高而相应减轻。

      其次,法律应当及时适应新质生产力的产生和发展。法律责任的合理划分事关社会的治理与稳定,需要注意法律滞后性对新兴事物发展的负面作用。对于有关企业的新技术,既要从社会效益的角度做好法律适用的解释工作,也要及时修订或出台有关法律,为新质生产力的成长提供法治保障。

      最后,应加强自动驾驶的配套基础设施建设。自动驾驶的推广和交通事故的减少,不仅有赖于向善的科技伦理和健全的法律制度,更有赖于公路、桥梁、电力设施和信号设备等交通基础设施的更新与完善。

      (作者:刘俊杰、刘思聪,分别系中国人民大学纪检监察学院副教授、当代政党研究平台研究员,中国人民大学中共党史党建学院博士研究生)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有