最近,香港警方披露的一起“AI换脸诈骗案”颇受关注:某公司职员参加一场“多人视频会议”后,被骗2亿港元。原来,在这场会议中,只有受害人是“真人”,会议中的其他“同事”是诈骗分子用“AI换脸”技术冒充的。
一段时间以来,基于“AI换脸”等新技术的诈骗案时有发生,视频生成模型Sora的问世,更让人意识到“有视频有真相”也不再可靠。那么,有什么办法能识别视频电话那端的是“真人”还是基于AI技术的“数字人”呢?
“按鼻子识别AI换脸”的做法登上热搜。有专家提出,可以让对方摁鼻子、摁脸,观察其面部变化——真人做这些动作后,相关部位会发生变化,比如塌下去、变形等;但“数字人”就不会,或出现破绽。这些做法有效吗?
蚂蚁集团天玑实验室安全算法专家朱凯表示,以上做法有一定的参考价值,但未必完全奏效。
具体来看,大多数的生成算法(AIGC)生成的都是干净的脸,而摁鼻子或者摁脸,意味着给人脸增加了遮挡,相关算法可能因为训练时数据不够,从而在生成有遮挡的脸时出现破绽。
不过,一些比较先进的算法已经可以完成静态场景下、局部遮挡画面的生成。也就是说,如果只是摁鼻子或者摁脸,有些算法也能给出以假乱真的效果。
因此,他更建议通过遮挡结合“动起来”的方式,来识别到底是真人还是“数字人”——比如,在摁鼻子或摁脸的同时左右摇晃头部,这就是“动起来”的一种方式。目前很多“AI换脸”的基础是被模仿者的照片,照片是平面的,所以生成的“数字人”以正面、平面为主。当人脸动起来时,会呈现出脸部的三维结构,算法只能基于平面的照片推测三维结构,按照现有的技术手段,推测结果大多不太理想,从而让人发现漏洞。
此外,可以要求对方在脸部挥手、用手指比数字等。真人做这些动作时,脸部表情、手部动作都很自然;如果是“数字人”,很可能出现问题。虽然现有的AI技术有能力生成脸部被部分遮挡的静止画面,但“挥手”“比数字”意味更多的动作,目前技术还没办法实时生成完美效果,从而出现破绽。
值得注意的事,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。
例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。
同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。例如,可以询问对方只有当事人之间知道答案的问题、共同经历的事情等。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)