首页English
  • 时政
  • 国际
  • 时评
  • 理论
  • 文化
  • 科技
  • 教育
  • 经济
  • 生活
  • 法治
  • 军事
  • 卫生
  • 养生
  • 女人
  • 文娱
  • 电视
  • 图片
  • 游戏
  • 光明报系
  • 更多>>
  • 报 纸
    杂 志
    光明日报 2017年09月04日 星期一

    人工智能算法的复杂性特质及伦理挑战

    作者:刘劲杨 《光明日报》( 2017年09月04日 15版)

        当下人工智能的伦理思考多侧重于实践:如人工智能是否最终会成为人类事务的主导,该以什么伦理原则来引导、规范人工智能的应用等。可更大的挑战却是理论上的困惑:算法是人工智能的内核,不同算法实则暗含有不一样的价值选择,何谓善的算法?善的算法必会导向行为的善?人工智能算法可以自我学习、自我进化,伦理上该如何看待这种智能主体?鉴于人工智能是一种典型的复杂行为,从复杂性的角度我们能更深入地揭示这些困惑和挑战。

     

        人工智能算法的传统通常有两个:一是符号认知主义,主张智能行为依赖于符号操作,通过基于符号表征的计算可实现学习、记忆、推理、决策,甚至情感活动,如早期的专家系统;二是联结主义,受人和动物大脑神经结构启发,认为通过大量底层简单的“激活单元”相互交织可在高层自发涌现出复杂的智能行为,这一传统以人工神经网络为代表。阿尔法围棋的成功主要得益于后一种传统,基于神经网络的深度学习实现算法的突破。

     

        以复杂性视角观之,基于神经网络的人工智能算法有一个突出特质——涌现性,即智能是一种由算法底层的简单规则生成的复杂行为,智能并不由预定的算法前提所决定。“涌现”被遗传算法的创立者、美国科学家霍兰称为复杂世界的“隐秩序”,生命诞生、交通堵塞等都是涌现现象。以棋类游戏智能算法为例,棋子数是有限的,游戏规则是简单的,但棋局变化的可能性却无法穷尽。棋局的最终输赢是一种涌现,决定棋局走向的不是底层的简单规则,而是由它们生成的更高层的组织过程。

     

        人工智能算法的涌现性具有这样一些特点:1.智能行为不是一种底层简单规则的加和,而是从底层到高层的层次跨越,高层具有底层个体所不具备的复杂特性。2.无法通过底层算法来准确预测高层的涌现,智能是算法前提无法决定的“新奇性”。3.涌现不是单一行为而是由众多简单个体行为到复杂集体行为的演化。智能行为是一个过程,棋局的最终取胜不是依靠单次行为的累加,而是算法演化系列的整体取胜。阿尔法围棋在与人类棋手对弈时有一些令顶尖职业棋手难以理解的“昏招”,可这些昏招到了棋局结束时竟成为取胜的“神之一手”。这并不是证明了所谓关键招的重要性,而是表明“招数系列”比“某一招”更有意义。在伦理上,涌现性特质揭示出人工智能算法具有不同于传统的行为特征:人工智能算法行为不是边界清晰的单个行为而是集体行为的演化,其行为效果既不由“某一”行为所决定,亦不由其前提完全决定。

     

        人工智能算法的另一个复杂性特质是算法的自主性。美国科学家冯·诺依曼于20世纪50年代初成功建立了一个能够自我繁殖的元胞自动机算法模型,它成为第一个可以自我进化的算法。当下人工智能深度学习算法可以从海量无标注的大数据中自我学习、自我进化。阿尔法围棋一代曾依据人类历史上的优秀棋谱,对弈了3000万盘棋,二代强化了自我增强学习。如果智能算法的自主性意味着机器不再是被动的工具,而是某类主动的、自我进化的“生命”(如人工生命),那么我们是否能说人工智能就是一个具有自我意识、能够自我决定的“主体”?以算法的观念来看,理性传统所认可的这种“主体”其实是一个能够协调个体自身复杂行为的中心控制单元,它担负该个体所有信息的整合和全部行为的控制。强人工智能自主性遵循这一传统,人们认为未来的人工智能不仅具有感知对象、解决问题的智能,还可能具有感知自我的意识。弱人工智能的自主性主要是指智能行为的自组织性,机器算法会在没有人类程序员的干预下自发学习,自动处理问题,以分布式控制算法为其代表。强人工智能主体在技术上目前还遥遥无期,常常成为科幻作品的题材。弱人工智能的分布式控制模式目前已在人工智能领域得到广泛应用,形成了一种完全不同于传统的主体观念。

     

        要回答什么是善的算法,我们需要追溯伦理学的一个基础问题:什么是善的行为?该问题又可转换为什么是正当的行为?作为主体的“我”应该如何行为?道义论者更强调行为原则的正当,功利论者更看重行为结果的正当。在英国伦理学家乔治·摩尔看来,不论是从功利论还是道义论出发,一个行为是“正当的”在很大程度上就是指“这一行为会产生可能的最大总量的善”,而“我”应当按此善的原则实施某一行为。

     

        2015年5月,美国人约书亚·布朗在使用特斯拉的“自动驾驶”模式时遭遇严重车祸身亡,成为人工智能发展中的重要事件。该事故历经了十个多月的周密调查,最后归责为驾驶员过于信任人工智能,手没握住方向盘,人工智能得以免责。不久的将来,人工智能必会让我们可完全摆脱方向盘,智能驾驶系统由厂商的机器人制造,其算法不断自我进化,无缝嵌入庞大的物联网中,行进于更多智能体交互的开放环境,并与它们共同形成了一个不断自我演化的复杂算法整体。在这一整体中,厂商、机器人、使用者、众多智能体等都是造就整体的个体,但并不存在对整体负责的“主体”,此时我们在伦理上可能面临根本的挑战:智能行为既不遵循行为与效果之间的直接对应,也不遵循行为与主体之间的必然联系,我们该如何做出一个恰当的道德判定?如果智能行为的涌现是理性原则的失效,我们如何从行为原则的角度来评判其行为的善,又如何能通过道德代码的嵌入来使之成为善的算法?如果道德主体实质上是诸多分布式智能体的组织过程,那么什么是“我”的正当行为呢?面对人工智能的这些深层挑战,最为重要的不是一味地退缩和担忧,而是在挑战中与其共同进化和成长。

     

        (作者:刘劲杨,系中国人民大学哲学院副教授)

     

    光明日报社概况 | 关于光明网 | 报网动态 | 联系我们 | 法律声明 | 光明网邮箱 | 网站地图

    光明日报版权所有