英国科研工作者不久前开发出一款命名为“智能机器人”的软件系统,能让59.3%的测试者将其误判为真实的人类。据研制者罗洛·卡朋特推断,该系统“或许为研制新一代智能机器带来了契机”。(据光明日报9月19日“科技天地”版报道)
如果说,人类的终极目标是使冰冷的机器成为设身处地为人类“着想”的“助手”,那么,英国科学家的成果只仅仅迈出了万里长征的第一步。因为“说”是一回事,“做”却是另一回事。
社会事务的纷繁复杂,必将在具体行动中暴露出这种片面、抽象的对话方式的不足。目前,信息技术的发展已经可以实现机器人的多元选择,即由机器人根据其软件内的伦理规约,决定诸如排名先后、利益多寡、评价正负等问题。相信不久的将来,机器人就可以具备相当水平的道德决策能力。但是,机器人的决策是一个纯粹的伦理程序输出过程,机器人本身无法像人一样批判地分析问题、创造性地提出建议,这就可能导致处理方式的过分僵化和人文关怀的缺失,从而造成不必要的损失。
要解决人工智能面临的伦理瓶颈,就必须一切从实际出发,建立符合伦理精神的人工智能。辩证法与形而上学的一个根本区别就在于,将实践的观点纳入视野,在实践的基础上历史地、发展地看待问题,得出客观公允的结论。历史告诉我们,即便是同一个社会环境下的伦理准则,也会随着文明的更新和时间的推移发生质的改变;即便是没有任何争议的伦理禁制,也常常由于事出有因或别有隐情而情有可原。因此,要想让机器人拥有近似人类的思维逻辑,就必须从人性出发,而不是从伦理教材的金科玉律出发,研究人在面对具体问题时的思考角度和思维突破口,唯此,才能发现人类道德进化的规律,才能模拟人类创新思维的路径,才能形成高仿真度的推断程序,从而实现决策内容的辩证,使机器人成为“含有人类感情”的道德决策者。
要解决人工智能面临的伦理瓶颈,还必须承认矛盾的普遍存在,在人机交互试验中求同存异。一方面,不仅要重视不同文化间潜在的共性与联系,更不能忽视区域因素带来的文化上的差异。不同文化的形成、传播与扩散方式,决定了文化间碰撞时的相互联系、相互制约、相互作用与相互转化。积极研究文化间“和而不同”、甚至“不和”的因素,是将抽象的人机对话转化为机器人具体、独立地进行“人性化作业”的必由之路。另一方面,不仅要追求计算机性能与人类需求的最大交集,更要敢于面对人机之间看似不可逾越的鸿沟。只有深入研究和掌握人类思维模式与机器思维模式的相异之处,才能为消弭人机矛盾打造坚实的基础,才能深化对人工智能的探索,将认识从感性层面提升到理性层面。
最后,要解决人工智能面临的伦理瓶颈,必须明确主体的伦理需求,实现主体与客体的统一。马克思主义认为,明确主体自身需要是主客体统一的前提。客体“应怎样”,从根本上取决于主体“要什么”。有趣的是,我们希望机器人能够提供客观公允的服务,但是却无法提供一套放之四海而皆准的规范,甚至我们自己都常常在道德选择题前手足无措,不是吗?机器人铁面无私地执行芯片上的伦理判断,并对人类的伦理学进行监督和质疑:人类究竟要追寻怎样的伦理标准?难道许多符合伦理标准的行为无法得到人类情感的辩护吗?难道一些明显的禁锢新思想的旧伦理不该被取缔吗?幸亏机器人不发问,否则我们何其汗颜。如果有一天,人工智能发展到可以体验人类情感的地步,机器人能够运用自己的思维而不是伦理芯片进行道德判定,在这“第三双眼睛”的监视下,我们能否会像自己宣称的,做到绝对的公正与公平?
不过话说回来,也许真到了机器人能够“辩证的决策”的那一天,它们会替我们给出关于这些问题最完美的解答,谁知道呢?
(作者单位:国防科技大学人文与社科学院)