“黑客”拿着摄像头,拍下一张参观者的相片。10几秒过后,出现了参观者“护照照”“明星照”“生活照”等不同风格相片;接着,又生成了一段带有抬头、转头、张嘴、眨眼等动作的视频,几乎与真人视频无异。然后,“黑客”试图利用这段视频,解开参观者所使用的人脸识别密码……
AI造脸吸引很多体验者(作者摄)
AI只花10几秒钟就生成不同形式的相片和动态视频,真假难辨(作者摄)
在2024世界 人工智能 大会的展会上,一项名叫“谍影重重”的深度做假(Deepfake)互动体验吸引了众多参观者,排队等待生成“假脸”。面对短时间生成的数字形象,尤其是动态的视频形象,很多体验者连呼“太像了”。不过,“黑客”使用视频形象解锁“人脸识别”时,反深度做假平台ZOLOZ提示,视频涉嫌深度做假,解锁不成功。
同样是利用 人工智能 技术,AI制造的假脸视频被识破(作者摄)
“我们希望通过这一互动,让大家了解深度做假,不要轻信各种视频、图像。同时,呼吁更多的应用者和研发者关注深度做假,用技术手段降低风险。”展台职员介绍,随着 人工智能 的发展,“AI换脸”的水平越来越高,几乎真假难辨。但针对性的技术研发,有机会“用魔法打败魔法”。在“谍影重重”互动中,ZOLOZ能识别出视频做假,正是应用了 人工智能 :对用户面部动态进行细致入微的分析,捕捉微脸色、肌肉纹理、眼神流转等细微特征,判断其是否为真人实时互动。目前,相关技术已经应用在金融等领域。
用 人工智能 技术从细节判断真伪(AI制图)
人工智能 治理是今年世界 人工智能 大会的重要议题,而防范 人工智能 做假,具有很强的现实意义。申城好网民专家、中国网安协会 数据安全 专家、 上海临港 数据评估有限公司总监宗良介绍,以往的做假以文字编造、图片编辑(PS)、视频剪辑等居多。但基于生成式 人工智能 ,出现了“文生文”“文生图”“文生视频”“图生视频”等做假方式,“以假乱真”的现象愈发普遍,还被非法分子利用,好比香港警方披露的、涉案金额高达2亿港元的“AI多人换脸”诈骗案等。
面对新的做假方式,公众要提高警觉,不轻信网络上的视频和图像。同时,若在视频通话中觉得可疑,可以让对方摸脸、按鼻子,或主动切换成方言对话,增加AI做假的难度,造成AI做假露出破绽,从而鉴别真伪。
另外,公众要谨防保护个人隐私。现场的体验让大家看到,一张相片就能生成真假难辨的动态“假脸”,这说明,每个人都要保护好自己的信息,包含面部信息、静态相片等,避免被非法分子利用。