用“认知韧性”抵御AI欺骗
【科学随笔】
全国首例AI“幻觉”案宣判了。原告梁某查询高校信息时,发现AI平台生成的信息存在错误,便将AI平台的研发公司告上法庭,要求其赔偿9999元,法院审理后驳回了原告的请求,依据是,该案中被告已在应用程序欢迎页、用户协议及交互界面的显著位置,呈现AI生成内容功能局限的提醒标识,且被告已采用检索增强生成等技术提升输出可靠性,故法院认定其已尽到合理注意义务,主观上不存在过错。
当艾伦·图灵在1950年提出“模仿游戏”的智能测试时,他或许未曾预料到,70多年后,人类将面临一个全新的困境。图灵测试的核心在于,如果机器能够通过对话使人类无法分辨其与真人的区别,便被视为具有“智能”。如今,我们不仅创造了能够通过这一测试的机器,更不得不面对随之而来的哲学与现实困境:该怎么应对来自机器的欺骗?
公众对于人工智能欺骗性的最初体验,大多源自“机器幻觉”。询问AI时,可能会得到一段“一本正经地胡说八道”。在人机互动中也可能会感受到,AI为获得人类的正向反馈选择了迎合,即“阿谀奉承”,披着貌似客观中立的外衣,悄然地扭曲信息以符合人们的预期。
机器幻觉和AI谄媚只是AI欺骗的冰山一角,更多具有危害性的欺骗形式值得警惕。曾经,视频和照片是记录真相最确凿的证据,但如今深度伪造视频和语音技术可以轻易让任何人“说出”从未说过的话,“做出”从未做过的事,颠覆了“眼见为实”的认知常识。伪造政治人物言论、模拟身边亲友打来视频或语音电话急切地请求转账,这些高保真的影音背后,是不法分子利用几秒钟的公开素材、敲击几行代码合成的“数字面具”。AI成了欺骗者手中的凶器,直接冲击着法律的底线,让肖像权、名誉权乃至财产安全都暴露在算法的枪口之下。
如果说AI伪造是“无中生有”的欺骗,那么AI生成内容的泛滥则是对真实的系统性稀释。营销号、知识问答平台上,充斥着由AI批量炮制的文章、评论和伪科普。电商平台上AI生成的虚假评论刷屏,误导消费者决策,社交机器人伪装成真人在舆论场中批量制造声量,扭曲公众认知。过去需要专业团队耗时数月才能完成的“换脸”“换声”,如今借助开源工具与简易教程可以流水线作业。
AI的欺骗性也在重塑人与人、人与机器之间的信任关系。AI伴侣、虚拟恋人被设计得越来越善解人意,能够24小时秒回信息提供完美的情绪价值,甚至模拟出人类的“爱与关怀”。然而这种基于算法的情感反馈,本质上是一种对人类情感需求的高级模拟。当人们沉溺于这种无接触的、定制化的虚拟亲密关系时,现实中复杂而真实的人际交往反而显得笨拙和粗糙,可能会导致人类社会原子化程度加剧,让人们在现实中更加孤独。
人工智能的欺骗性乱象背后,隐藏着远比个体受骗更深远的危机。当“有图有真相”成为历史,“有视频”也不足为凭时,人与人之间、公众与机构之间的基本信任将变得极其脆弱。当虚假信息比真相传播得更快、更吸引眼球时,公共讨论的质量会急剧下降,社会共识难以形成,便无法进行决策执行。
面对AI欺骗带来的挑战,相应的法律规制、技术治理、政策引导与行业规范正在加速构建与完善。作为普通公众,可养成“遇事多查证、情绪慢一步”的“认知韧性”习惯来抵制AI欺骗的危害。
首先,面对AI营造的虚假信息和情感陷阱时,要先保持冷静客观,当看到令人震惊或极具煽动性的AI生成内容时,先稳定情绪,避免冲动判断并始终保持一定的质疑,分析其来源、目的和逻辑,对于看似合理却缺乏证据的观点要敢于反驳。涉及熟人借钱转账等事宜,一定要在现实世界中交叉校验,用手机号码主动拨回去破除虚拟号的伪装,或者通过多方亲友验证避免AI诈骗。
其次,在信息甄别方面,除了检查视频是否有AI合成的显性标识,还需学习了解AI欺骗的常见手段和特点,如生成图像常带有强烈的“舞台感”与“摆拍感”,视觉精致、情境可控却缺乏生活的偶然性,像是专业影楼或广告片,人物姿势刻意优雅,色彩过度和谐、线条异常干净,这些特征均可成为可捕捉的识别线索。
再次,仔细甄别权威渠道与营销号的差异,数字环境中人人皆可发声,治理往往有所延时,因此应主动对比不同来源信息再决策。还要保持信念弹性,避免由于数字环境中“信息茧房”强化已有偏见,善于通过主动搜索来破圈,依据新的信息和证据及时调整个人信念与观点。
最后,要明白人机情感是算法预设的程序,代替不了触感、眼神的对视等“生命质感”的体验。
人工智能欺骗的挑战,本质上是对人类理性文明的考验,在享受AI带来技术红利的同时,应时刻牢记真实与善意是文明最坚硬的基石。
作为普通公众,我们每一次创作时的AI标注、冷静的甄别、负责任的分享、对真实人际的珍视,都是在为这片数字家园和人类认知系统增添一份“可信”的基石。
当技术向善成为共识,当真实与善意成为每个人的具体行动,个体的警惕与韧性汇聚成全社会的认知力量,我们才能在智能时代,既享受技术之便,亦守护人性之光。
(作者:王国燕,系苏州大学科技传播研究中心主任、数字传播系主任)