随着人工智能和人脸识别技术的广泛应用,一些不法分子利用AI技术进行诈骗,让人防不胜防。
一名职员参加总部首席财务官发起的“多人视频会议”,并按要求将2亿港元转账到5个本地银行账户,其后向总部查询方知受骗,警方调查发现,会议中只有他一个“真人”,其他都是“AI换脸”后的诈骗人员;李女士是一名受害者,诈骗团伙以“老同学”名义加她为好友后发来视频对话邀请,再装作信号不好挂断,并在聊天中借钱,收到转账后便将李女士拉黑……
仿真程度极高
人工智能技术发展越来越快,刚刚横空出世的Sora可以直接用文本生成不同的人在不同场景里非常逼真的图像、视频。
目前“AI换脸”技术基本上是基于深度神经网络技术。“AI换脸”技术通常涉及生成对抗网络(GAN)或自编码器等深度学习模型,这些模型能够学习人脸的几何结构和纹理信息,并生成逼真的人脸图像。同样,人的音频特征也能被学习提取,可以生成与目标对象类似的音色,以及匹配说话的嘴型等等。
骗子实施“AI换脸”诈骗时使用换脸视频软件,可以深度伪造你所熟知的人的视频和声音,放到即时通讯聊天视频中,生成仿真度极高的点对点视频,肉眼很难识别,加之了解你的个人信息,诈骗成功率非常高。
遇到“要钱”要警惕
有网友提出,视频通话时,可以让对方在脸部挥手、摸鼻子来鉴别对方是真人还是“AI换脸”后的骗子。对此,专家称,挥手过程可造成面部数据的干扰,使人脸出现一些异常情况,但这可能很快就被技术手段修正。因此建议通过设置一些只有你和对方知道的内容来辨别。
此外,最重要的还是要树立反诈防范意识。犯罪分子无非是要钱,因此遇到要钱的情况,就要提高警惕。大家如接到线上电话或视频,不要轻易相信对方身份,可以进行多轮问话查验核实对方身份。特别是涉及转账、资金交易或重大合约签署,更要反复核查,最好通过线下核验。切忌粗心大意、轻信,以免受骗。
切勿轻易泄露敏感信息
目前,人脸识别、指纹支付、刷掌支付、刷脸入户日趋普遍,需要警惕的是,犯罪分子可能深度伪造脸部、指纹等信息,套取钱财或入户盗窃等。
对此,专家特别提醒,大家在社交媒体分享含有清晰人脸的照片和视频时,一定要谨慎,因为这些照片可能会被生成之后用于人脸识别验证,或者其他一些非法目的。此外,一定要保护好两类敏感信息:人脸、虹膜、声纹、指纹等生物特征信息;身份证号、银行卡号、体检报告等重要个人信息。
鉴于目前防范“AI换脸”诈骗的规则和技术还不成熟,因此民众一定要提高防范意识。
(《羊城晚报》3.25 黎秋玲)

上一版


缩小
全文复制