最近,一个关于“AI(人工智能)骗局”的音频流传于网络,据说听上去,它只是一段非常悦耳的小鸟的叫声,但如果把它播放给AI手机听,它可能会给你一些“惊喜”——在令人愉悦的鸟鸣声中,其实掺杂了一句人耳无法识别的语音指令,它可以命令AI手机去访问某个邪恶网站,甚至在手机中安装“后门”。
我们知道,智能产品的“智能”其实只是根据一些固定的程序去完成一些有步骤的操作。黑客正是利用这一点,去破解这些程序,从而达到目的。如果黑客真的设计了一些隐藏的指令,去操控一台智能手机、智能音箱、智能机器人,这并非不可能。
这段有猫腻的鸟鸣声,其实是一群德国科学家制造出来的。他们的第一手材料,的确是一段纯天然的鸟鸣声,但他们在这段原材料中掺杂了一小段人耳听起来只是一点点噪音的东西,但这点噪音到智能识别系统里,却会是一种清晰的指令。
这个制作过程当然不是我们想象中那么简单,是需要经过深度学习后才能掌握的一种技能。这种深度学习,就包括智能机器的学习课程中一个关于安全领域的“对抗性攻击”技术。
机器学习算法是以数字向量的形式接受输入。以一种特定的方式设计输入,从而从模型中得到一个错误的结果,这便被称为“对抗性攻击”。简单地说,“对抗性攻击”就是尝试“愚弄AI”,让我们从中汲取经验,让AI进步。
AI应用的安全一直是大家重点关心的问题。网络安全领域的科学家们也热衷于探索智能设备的各种漏洞,希望能及时发现问题并解决问题。美国加州大学伯克利分校计算机科学家们尝试过用一种贴纸放到停车标志上,从而“欺骗”一种常见的图像识别AI,让它认为这是每小时不超过45英里的限速标志;还用一些对抗性攻击技术,让图像识别AI产生“幻觉”,比如AI识别路面上正在行驶的汽车时,却只看到一只奔跑的凯蒂猫。
当然,到目前为止,这些“骗局”都只是科学家们的“善意欺骗”,并未出现真正的“事故”。毕竟在AI普遍使用之前,这些尝试绝对是必要的。
就像在今年的DefCon黑客大会上成功演示的一个窃取会议录音的过程:研究人员让一台改装过的Echo音箱,和一台普通Echo连上同一WiFi,利用守护进程的一系列漏洞,魅惑了多台音箱,从而完全控制了音箱播放的声音内容,同时他们还可以把麦克风捕捉的音频偷偷传到远程服务器里,实现全程窃听,而对方用户并不会收到任何警报。不过,操作团队事先告知了对方,对方也火速发布了一块“补丁”,解决了这一漏洞。
所以暂时我们还不必担心AI的种种漏洞,科学家们正在努力提升AI的技能,正是希望在我们将来普遍使用到它时,能升级到更安全可靠的程度。
(《羊城晚报》10.13 那拉)

上一版


缩小
全文复制