首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 养生
  • 女人
  • 文娱
  • 电视
  • 图片
  • 游戏
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    中华读书报 2021年11月24日 星期三

    全球人工智能治理的思想地图

    ——基于《2020全球人工智能治理年度观察》的思考

    《 中华读书报 》( 2021年11月24日   05 版)

        “相比于工业时代科学与人文的割裂,人工智能时代的科学与人文之间的界限再次变得模糊。事实上,专家们一般只在自己擅长的细分领域能够提出洞见,没有哪个人或组织能够统揽全球人工智能治理的全局,更不可能在所有领域都做到的世界顶尖。在人工智能治理这种社会难题的破解方面,迫切需要科学家和人文社科学者协同工作,打破彼此之间合作的壁垒。”

        ■孙保学

        《2020全球人工智能治理年度观察》(AI GOVERNANCE IN2020:A YEAR IN REVIEW OB⁃SERVATIONS OF52GLOBAL EXPERTS)英文版于2021年6月发布,吸引了全球同行的普遍关注。这份报告由全球人工智能治理领域的顶级专家共同完成,是中国智库与世界学者深度合作的一个范例。参与撰写的专家团队继续保持多元化,包括图灵奖得主在内的技术专家、全球人工智能研究机构负责人和研究人员、政府部门和国际组织相关领域的专家。能够团结世界顶尖机构的众多高端人才共同参与撰写报告,已经充分说明中国在人工智能治理领域已经走在世界前列。

        与2019年的年度观察相比,今年的全球观察最大的亮点之一是拉丁美洲和非洲等发展中国家的人工智能发展和治理实践得到充分重视。这是报告发布方上海市科学学研究所采纳了去年蒙特利尔人工智能伦理研究所建议的结果,这也体现了这份报告不断提升的大局观和开放性。年度观察将思考视域定位在“全球”,彰显了人类命运共同体的情怀与责任。把人工智能治理作为一项需要全球协作的社会工程来看待,因此在全球人工智能治理的道路上“一个都不能掉队”。正是关注到人工智能发展和治理的地域差异,启发本文尝试从“思想地图”所展现出的地貌特征这种比喻意义的视角来理解这份全球年度观察。(20多年前,汉斯·莫拉维克(Hans Moravec)提出计算机性能的海平面类比。他将计算机硬件性能的快速进步比喻为海平面的上升,而人类引以为傲的诸如象棋、定理证明、驾驶等智能形式终将被机器智能“淹没”(超越)。因此,人类为了安全起见,必须提早准备,往更高的山峰迁 移。参 见 Moravec,Hans.“When will computer hardware match the human brain.”Journal of Evolution and Technology,1998,1(1):1-10.)

        想象一下,如果我们用地形来比拟全球人工智能发展和治理的总体样貌,那么我们可以根据这份《全球观察》大致描绘出一幅“全球人工智能治理的思想地图”。其中,露出地面的部分代表全球范围内人工智能技术发展的高度:高耸的山峦代表着像美国、中国、日本和欧盟等人工智能发展较快的国家和地区;丘陵代表着像印度和东南亚等发展不平衡却又快速成长的国家和地区;低洼地带代表着非洲和拉丁美洲等发展中国家和地区。水平面则代表着当前人工智能治理的水平。如今,各国不断进步的人工智能治理能力紧紧追赶技术的快速发展,水平面的抬升速度日趋显著。当然,人工智能的治理一定是全球性的,积极主动的先行者会掌握话语权,而且决定着水平面的上涨速度。先锋国家的治理经验和标准会像海水一样灌入低洼地带,那些技术发展缓慢或治理能力欠佳的国家和地区可能都要被迫屈从于这些治理规则,从而陷入被动地位。

        高山之下:发展中国家的人工智能治理渐显端倪

        目前,全球人工智能的发展是极不平衡的,不同国家和地区各有侧重,相应的治理也并不同步。那些基础雄厚的国家早已走在技术的前沿,但不少国家由于种种原因,技术发展缓慢,远远落后于这个时代。对于前沿科技,人们的关注点往往聚焦在那些先锋国家和地区。正如运动场上发令枪响后,多数人的目光都聚焦在跑在最前面的几名运动员身上,少有人注意到那些落伍者。方淑霞(Ma⁃rie-Therese Png)重点关注了这种不平衡现象,指出某些具有先发优势的国家将处于测试阶段的致命性自主武器投放到缺乏话语权的发展中国家优先使用。这是将人工智能系统的潜在危害输出到边缘化人群,也是历史上殖民主义的延续。这种以邻为壑的做法不仅会使人工智能发展的风险系数增加,还会加剧国与国之间的不信任,使人工智能治理的国际合作变得困难。实际上,只有这些问题得到广泛的关注,才有可能吸引更多的主体参与到全球的人工智能治理,从而解决历史上遗留下来的不平等问题。

        为了与数据殖民主义(data co⁃lonialism)斗争,尤利西斯·梅希亚斯(Ulises Mejias)去年在全球范围内发起并倡导“不结盟技术运动”(Non  Aligned  Technologies Movement),试图帮助发展中国家尽可能摆脱对国外先进技术的过度依赖,发展有利于民族自决的技术,防止再次陷入不平等的泥淖。另外,不少非洲国家也已经在这方面做出积极努力,防止数字鸿沟继续加深,导致贫富差距和社会不公的扩大。根据国际隐私组织2020年的报告显示,在53个非洲国家中,已有将近一半国家通过数据保护法律法规,很多国家开始关注并重视人工智能的道德影响。维克多·法姆波德(Victor Famubode)指出,政府相关机构数据治理力量薄弱是导致这些地区人工智能治理落后的根本原因。他建议,非洲各国要以社区部署为切入点,避免关键的安全漏洞,提升利益主体负责任使用智能技术的能力,提高公众认知水平,关注技术风险和影响评估等。实际上,在发展中国家和地区需要更多类似的政策工具来减少不平等、种族歧视和民族歧视等问题。马拉维卡·杰亚拉姆(Mala⁃vika Jayaram)认为,“包容性”是不平等的家长式理念,它孕育了殖民主义理论的不公正和不可持续的价值观和偏见,它们应该受到抵制和消除,发展中国家要拒绝西方标准的数据主权的入侵,展开数据去殖民化的工作,进而才能有望实现数据控制的非殖民化。

        价值一致:积极构建人类友好型的负责任AI

        如果说很多发展中国家在人工智能治理的思想地图上的工作是“脚踏实地”地解决眼前的现实问题,那么不少发达国家和地区的学者已经开始“仰望星空”地思考未来,尤其是如何使人工智能的目标和行动始终与人类福祉保持一致的问题。作为“人工智能有益运动”的支持者,斯图尔特·罗素(Stu⁃art Russell)在2014年将“一致性”引入到人工智能研究领域,迈克斯·泰格马克(Max Tegmark)在其畅销书《生命3.0》中明确支持这种主张,认为这才是对人工智能安全性的可靠方案。对于此类问题的强调,能够使越来越多人认识到,那些担忧超级人工智能到来和仅仅把人工智能作为工具来看待都是不合时宜的。

        当前,人工智能发展和治理工作的重心应该是构建人类友好型的人工智能。尽管安纳德·劳(Anand S. Rao)提出,通过使用负责任的人工智能来管理和消减人工智能的风险正变得至关重要,但是企图完全通过技术的自我监管来达到价值一致的目标是不现实的。布莱恩· 克里斯汀(Brian Christian)指出,人工智能治理绝不仅仅是一个工程问题,而是一个范围更广的治理问题,涉及工程师与系统、人与人之间关于智能技术的发展是否符合人类价值和利益如何达成共识的问题。因此,人工智能治理不能只是依靠技术专家,治理的对象也不能只是针对科学家和工程师,要依靠多方的共同努力才能研发出值得信赖的人工智能。

        但是,罗曼·杨波斯基(Ro⁃man Yampolskiy)以其颇具未来主义的悲观想法站在了大多数人的对立面。他认为,对于可能出现的比人类更聪明的人工智能,我们无法真正地控制它们,更不用说对它们进行有效治理。在他看来,治理只能是针对研发人员及其产品进行管理,但这种管理又受限于特定的技术瓶颈,例如在可预测性、可解释性和可控性方面始终不尽如人意。从事人工智能治理研究的绝大多数人都假定人工智能是可以被控制的,但实际上这是无法被证实的。杨波斯基认为,试图完全控制人工智能是不可能的,我们只能在有限范围内对一些弱人工智能进行规制。

        其实,不只是杨波斯基认识到了问题的严峻性。贾里德·布朗(Jared Brown)也指出,“评估和管理人工智能相关的风险将是一项极其困难和复杂的任务”。娜塔莉亚·苏姆哈(Nathalie Smuha)也强调,人工智能的开发和使用中的一些风险是依靠政策或监管无法解决的。清华大学战略与安全研究中心主任傅莹指出,“AI在可解释性、学习能力和常识认知方面的缺陷将加大人机合作期间发生战场冲突的风险,甚至致使国际危机螺旋式升级”。具有高度自主学习能力的新一代人工智能的决策后果充满不确定性,这使越来越多专家担忧它的潜在风险,对它们进行有效治理任重而道远。

        新冠肺炎疫情:全球人工智能治理的一项紧急课题

        站在未来,回望过去,“新冠肺炎疫情”是留在2020年思想地图上最大的标签。这场不期而至的“暴风骤雨”考验着世界各国政府的应对能力和治理水平。鲁子龙(Danil Kerimi)认为,这次席卷全球的疫情是“对我们的政策、制度和战略的完美压力测试”,而人工智能也有望在这次测试中推动新的社会契约形成。先进的医疗科技有效地帮助人类抗击病毒,以史无前例的速度研发出疫苗,数据智能在很多领域甚至成为有效应对疫情的关键。但是,在将智能技术广泛应用到疫情防控方面,某些技术强国的表现似乎一言难尽,而中国充分利用智能科技服务疫情防控的经验是值得他国借鉴的。当然,由于政治背景和历史文化的原因,一些基于人工智能的疫情应对方案和经验在其他国家的推广可能面临困难。

        任何人工智能的治理都应该始终把人民群众的生命安全、身心健康和福祉放在首位。但是,善治并不等于颁布并执行最严苛的法律法规,而是具有前瞻性地将充分的学理讨论落实为可执行的政策方案。为了能够有效地平衡技术发展与敏捷治理之间的张力,要将已有的人工智能研究成果和治理经验在疫情的场景下快速且有效地转化为切实可行的政策。为了防止疫情蔓延,数据追踪、行踪监测和人脸识别等技术得到快速应用,但也带来了隐私泄露的风险。贺尚安(Seán Ó hÉigeartaigh)提到,疫情期间英国政府迫于民间组织对隐私安全的担忧,不得不放弃集中式的数字接触者追踪方法,而改用分散式方法。潘竞宏(Poon King Wang)也指出,疫情加快了各行业的数字化进程,尤其是自动化和远程办公可能会对未来就业格局产生颠覆性影响,这需要政府机构尽早部署,探索职业再设计的方案。

        新冠肺炎疫情使全球认识到,好的合作机制是应对危机的有效手段。但是,全球范围内人工智能治理的碎片化态势日趋显著。思想地图上的边界鸿沟似乎有加深的趋势,深度的密切合作因为各种利益冲突而变得困难。用尤金尼奥·加西亚(Eugenio Vargas Garcia)的话说,“成立(全球性的)AI监管机构似乎遥遥无期”。但是,弥合利益冲突的工作还是要坚持不懈,为了挽救更多的生命,越是危机情形越需要激发彼此合作的可能和意愿。在这方面,联合国积极推进多边主义数字合作的做法是值得赞赏的。

        竞合关系:人工智能治理需要在竞争中保持合作

        相比于工业时代科学与人文的割裂,人工智能时代的科学与人文之间的界限再次变得模糊。事实上,专家们一般只在自己擅长的细分领域能够提出洞见,没有哪个人或组织能够统揽全球人工智能治理的全局,更不可能在所有领域都做到世界顶尖。在人工智能治理这种社会难题的破解方面,迫切需要科学家和人文社科学者协同工作,打破彼此之间合作的壁垒。科斯提拉-雷耶斯(Omar Costil⁃la-Reyes)指出,后疫情时代数字医疗人工智能的有效治理离不开多方利益相关者的协同合作。何塞·古里迪·比斯托(José Guridi Bus⁃tos)提到希拉·贾萨诺夫(Sheila Ja⁃sanoff)在2005年研究的一种现象:科学家和政策制定者都试图通过区分自己掌握的专业知识和“非专业”知识来维护自己的权威地位,这是非常不利于政策制定工作的,会使治理障碍始终锁定在研发不足的假象之中。

        不可否认,技术专家在人工智能的治理方面始终是极其重要的力量。但是,他们的意见在人工智能的有效治理中是否比其他领域的专家具有压倒性优势是存疑的。美国人工智能协会主席巴特·塞尔曼(Bart Selman)指出,“人工智能技术通常以一种我们人类完全陌生的方式运行,人工智能的治理必须通过政策专家与技术专家的密切合作才能完成”。尤金尼奥·加西亚(Eugenio Garcia)也说,“人工智能治理,绝不能单靠技术专家来应对”。而且,人工智能治理更不能被产业资本的声音所裹挟,伦理和法律治理的话语权要牢牢掌握在全社会手中,而不是由产业界来左右规则的制定。否则,我们丢失的将不仅仅是你我个人的权利。

        人工智能治理政策的制定必须依靠政府、学术界和产业界等利益相关主体共同参与。人工智能的治理涉及规则话语权争夺和人类未来发展的大问题。人工智能的治理是一项全人类的伟大事业,需要“并众力”,也需要“用群智”,良好的国际合作是必不可少的。现阶段,欧盟在人工智能治理方面行动迅速,在很多领域走在世界前列,甚至有主导治理规则的雄心。但是,近年来中美也已作出快速反应,充分发挥各自优势,寻求在规则制定方面的主动权,防止陷入被动局面。其实,在任何一个领域,只有形成了相对稳定的分工协作机制,这个领域才能走向成熟,人工智能治理也不例外。依靠合作实现优势互补、避开各自短板,才是人工智能有效治理的明智之举。年度观察中多位学者提到2020年6月份联合国发布“数字合作路线图”,这是对全球互联互通、数字包容等八个关键行动领域的政策努力,期望它能够产生广泛和积极的影响。

        但是,我们也应看到人工智能治理所面临的一些现实困难。温德尔·瓦拉赫(Wendell Wallach)注意到了国与国之间的不信任关系的加剧,并且认为基础设施的标准之争可能会带来灾难性后果。伊拉克利·贝里泽(Irakli Beridze)观察到民众与政府机构之间日益滋长的不信任,认为政府要重视机构数字化进程中个人权利的保护,执法机构需要采用负责任的方式使用AI来赢得民众信任。当然,不论前景如何,国家间的合作还是必要的,各国政府要避免各自为政,防止陷入零和博弈,造成逐底竞争;公众与政府和企业之间信任关系的构建也是应对各种挑战的关键环节,构建高效、灵活的治理体系离不开各主体之间有效的合作。

        总之,《年度观察》以一种高瞻远瞩的广博视野和现实关怀,给予我们一个全景式的思想地图,让所有人都有机会“站在巨人的肩膀上”,俯瞰人工智能时代的未来发展大势。在迷茫的时代,我们对于未来的预测很多可能是偏颇的,甚至是完全错误的。但是,时代的思考者却能够早早地洞见到未来的发展趋势。《年度观察》中的每一位撰稿人都是长期耕耘于人工智能治理领域的业内翘楚,他们对时代问题的把握比圈外人看得更远、思考得更深刻。他们以最凝练的概括述说2020年最值得标记的思想火花,每一点“星星之火”都可能点燃思想地图的一片,启发那里的无数人,为他们提供前行的亮光。《年度观察》让我们每个人都有机会用这个思想地图,带着内行人的眼光,以多重视角来观察这个领域的动态,使全世界的人工智能治理的研究者联合起来。

        (本文系湖南省研究生优质课程“人工智能伦理”(201937001 1 1 1)阶段性成果)

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明网版权所有