今年4月,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,讨论致命自主武器系统研发,即“杀手机器人”可能带来的影响。人工智能界的专家学者及防务分析人士一致认为,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌,是令人担忧和亟需讨论的现实问题。
大多数专家学者认为,就使用致命武器而言,人应当是起主导作用的要素。
被美国《麻省理工学院技术评论》评为“全球十大突破性技术”之一的“对抗性神经网络”,旨在突破人工智能想象力、创造力的瓶颈。在相关试验中,研究人员用明星照片训练出一套系统,进而生成了数百张根本不存在、但看起来很真实的人脸照片。还有研究团队让系统生成看起来十分逼真的梵高油画。
专家提醒,不法分子可能利用此类系统制造出图片甚至视频来混淆视听,给监管、安全带来新挑战。科学家们当前的研究重心已经转向如何避免这类技术的滥用问题,希望它“不至误入歧途”。
科学家一直希望以最简单的办法,保证以机器人为代表的人工智能不给人类带来任何威胁。美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。
与生物技术、核技术相比,目前对人工智能领域的监管依然薄弱。如何对可能形成的负面影响未雨绸缪、为技术发展划出法律和伦理道德的边界,已经迫在眉睫。
(《新华每日电讯》5.18 刘石磊等)

上一版


缩小
全文复制
上一篇