首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 健康
  • 女人
  • 文娱
  • 电视
  • 图片
  • 科普
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    光明日报 2024年08月16日 星期五

    人工智能不应成为法律主体

    作者:孙良国 《光明日报》( 2024年08月16日 11版)

      【学术争鸣】 

      人工智能的治理是一项复杂的系统工程,也是人类面对的核心问题之一。我国人工智能的发展要引领世界,就必须设计能够支撑人工智能可持续发展的治理机制。其中,法律作为治国之重器,应当在人工智能的治理中发挥重要作用。在人工智能的法律治理中,一个重要议题是,人工智能是否应当成为法律主体。在世界范围内,此问题引起了巨大的学术争论和社会争议,不同甚或对立的观点不断登场,远未达成共识。笔者的观点是,人工智能不应当成为法律主体。

      从实证法的角度看,立法机关可以通过法律认可任何组织、实体或者其他事物作为法律主体。任何突破传统法律制度的新制度,都必须是经过价值判断后的恰当结果。人工智能是否应当成为法律主体,取决于如下价值判断:既能够促进人工智能的发展,同时也能够消除人工智能的不当风险。技术变革往往会伴随风险,但只要风险可控且不会对人类价值产生不可接受的影响,那么法律就应采取最优措施来抑制风险。考虑当下功用,兼顾长远影响,总体来看,维持目前法律制度,不赋予人工智能以法律主体地位,是人工智能法律治理的最优解。

    人工智能的发展并不需要其成为法律主体

      人工智能是概括性术语,从机器学习到大规模语言模型等均包括在内。人工智能是否需要成为法律主体,可以从法律主体的历史演进规律获得启示。

      整体而言,法律主体演进的基本规律可概括为从“人可非人”到“非人可人”。即使到近代社会,自然人(公民)之间的权利也是有差别的。只有在现代法治国家,自然人才享有平等的民事权利。不仅如此,法律主体也已经不再限于生物学意义上的人,公司等实体也获得了法律的明确承认,同时附之以股东或者出资人以自己对公司的出资为限承担责任。此种承认促进了现代科学技术和组织形式的跨越式变革,推进了人类的文明进步。尽管部分学者列举或者设想了目前人工智能应当作为法律主体的具体场景,然而经过仔细分析,这些场景都没有显示出人工智能需要作为法律主体的真正客观需求,也没有显示出既有的法律制度(如代理、公司法等)阻碍了人工智能的发展而通过使人工智能成为法律主体会扫清该障碍。

      有学者认为,对社会生活的参与是判断是否设定法律主体的重要因素。这一说法值得商榷。因为参与社会生活的身份有主体和客体之分,人工智能是作为客体如机器、软件、程序或系统而参与的。即使客体很智能,甚至可以在既有技术设计下做出独立判断,但此种独立判断所归责的主体仍旧是设置、控制或使用该机器的主体,所代表的依然是设置、控制或使用该客体的主体的意志。事物很重要与法律赋予其法律主体资格是两个完全不同的问题。例如,对很多人来说,宠物已经成为社会生活的重要部分,其中部分人对宠物的依赖性要远高于其他事物,但这并不能证成宠物成为法律主体。同理,虽然人工智能非常重要,但法律仍然没有使之成为法律主体的内在需求。

    从责任能力视角看,人工智能不能成为法律主体

      在民法上赋予法律主体资格的一个重要条件是责任能力。承担责任意味着,法律主体承受不利的财产负担,而且该法律主体通常应当是最终的责任承担者。责任能力的一个前提条件是,法律主体必须有独立的财产。如果没有独立的财产,那么使人工智能承担责任就没有实质意义。到目前为止甚或是在相当长的未来,我们都很难设想人工智能需要或者能够拥有独立财产。由于这一前提条件并不具备,那么人工智能成为法律主体也就没有必要或者可能。从既有的媒体公开报道的人工智能导致人身或者财产损害的案件中,我们均可以根据既有法律规定找到需要承担责任的主体——开发人、设计者、所有者或使用者等。换言之,既有的法律制度能够解决目前人工智能所引发的人身或财产损害问题。

      进一步说,人工智能成为法律主体甚至有潜在的不可预计的风险。人工智能成为法律主体的一个自然推论是,它能够独立承担责任。由于人工智能的确会导致伤害甚或大规模伤害,如隐私泄露、数据毁坏、人身损害等——到目前为止,即使是专家也很难完全了解大规模模型的内在运行机制,并准确预测未来可能发生的伤害及其规模,而且对如何抑制未来的大模型伤害尚未形成共识。不仅如此,更危险的情形可能是,人工智能会有意或无意生成执行危险行为的能力,甚至“学习掌握”如何影响人类使用者,进而鼓动特定群体以破坏性甚或毁灭式方式行动。此时,人工智能承担责任就意味着开发、设计、运行、使用人工智能的主体将可以逃避法律制裁,这是极不可取的结果,必须予以避免。尽管“刺穿人工智能面纱”制度可以减缓上述不利后果,但是该制度应当有严格的适用要件,不可常规性地使用,否则就有违人工智能作为法律主体的设计初衷。

    情感、理性、意志不证成人工智能成为法律主体

      情感、理性、意志与人工智能的法律主体问题有内在关联。一种观点认为,赋予法律主体的一个传统要素是,其必须能够有情感、理性、意志。尽管人工智能是以深度学习为基础,然而,既有的人工智能大都不存在情感。尽管有些人工智能的技术领导者认为,人工智能很快就向有情感的方向发展。然而,即使有情感,甚或是自主情感,人工智能也不应当成为法律主体。因为相比很多人工智能而言,很多动物已经具有丰富的情感甚至一定的自我意识。尽管动物可以获得某些权利,然而从主导价值观审视,动物依然不能获得和人一样完全相同或者高度相似的法律主体身份。我国民法典也采纳了此种立场。从规范意义上评价,情感、理性、意志并非赋予法律主体的必备要素。与此相关的是,即使人工智能的推理能力已经超过了人类,也无法证成赋予其法律主体地位是一种必备或者最优的解决方案。

      在比较法上,的确有一些事物尤其是自然资源被赋予了法律主体资格,如部分国家通过立法赋予了珊瑚礁、河流或机器人以法律主体资格。然而我们发现,这些特殊事物都没有在民事法律中成为法律主体,更没有在民事基础性法律——民法典中成为法律主体。2017年新西兰通过立法赋予了旺格努伊河的法律主体资格,该法是与旺格努伊河毛利人妥协的一部分,是因为毛利人一直认为该河有生命力,该法的通过能够给毛利人带来希望。在特别的法律中赋予其某些特殊利益或者权利,并不能在一般意义上证成其应当成为法律主体。

    人工智能不作为法律主体并不影响人工智能法律制度的变革

      可以预见的是,人工智能已经或者在未来可能会经受伤害。基于人类的价值判断以及现代法治文明,法律制度也不应故步自封,一个可能的预备解决方案是,尽管人工智能不应当成为或者不是法律主体,但是有情感的人工智能机器人或者其他产品未来可能会受到法律的特殊规制,以保护人类对它们的某些情感利益和其他利益。

      人工智能的复杂性也会产生一些现行法很难有效解决的问题。例如,大多数人工智能系统都是诸多开发人、设计者、所有人、经营者、用户之间通过复杂的跨国协议产生的产品,在这一相互独立的关系的国际化网络中,确定某个或者某几个主体来承担责任几乎不可能。不仅如此,基于不透明性以及一些人工智能系统的自我学习性,伤害的风险可能是以一种负责开发的主体所不可预见的方式导致的,确定特定实体来承担责任更是难上加难。这就需要人工智能法律制度的持续变革。更好拥抱人工智能的方式是设定适应性的治理框架,以保护人类的文明成果。人工智能促进人类向好的方向发展,就需要通过多层次制度为基础的有效治理来促使其具有可解释性、可预测性、可信赖性。

      (作者:孙良国,系大连海事大学法学院教授)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有