新京报贝壳财经讯(记者黄鑫宇)近年来,随着网络技术的发展,金融诈骗伎俩快速翻新,迷惑性不断增强,严重侵害公众财产安全与合法权益。“AI换脸拟声”类金融诈骗,就是其中典型之一。
7月24日,金融监管总局金融消费者权益保护局发布了四类新型电信网络诈骗,其中就包含了“AI换脸”“AI换声”类金融诈骗。其实,这已经是金融监管总局体系就此的第四次风险提示。
据金融监管总局金融消费者权益保护局介绍,“AI换脸拟声”类金融诈骗,从手法上来看,多为非法分子以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、电话等方式联系消费者,收集发音、语句或面部信息。利用“换脸”“拟声”等技术合成消费者虚假音频、视频或图像,模拟他人声音或形象诈骗信任,再以借款、投资、紧急救助等借口诱导其亲友转账转账,或提供银行账户密码等敏感信息,随后立即转移钱财。
另外,非法分子还可能对明星、专家、执法人员等音视频进行人工合成,假借其身份流传虚假消息,从而实现诈骗目的。
据记者统计,直到今天,关于“AI换脸拟声”类金融诈骗,除金融监管总局金融消费者权益保护局2024年7月24日的最新“发声”外,厦门、北京与吉林等地金融监管总局的派出机构,均专门就此提示风险。
例如,2023年10月7日,北京金融监管局通过一则题为“识破欺诈诡计保护家庭财产”风险提示,明确向金融消费者提出“视频电话眼见、耳听未必属于事实”。
而据厦门金融监管局2023年7月7日发布的危险提示显示,随同着AI深度合成技术的成熟,AI深度合成产品和服务井喷式涌现,很多如“AI换脸”“AI换声”等尚处监管灰色地带的产业野蛮生长,为非法分子提供了无隙可乘,成为网络欺诈和身份偷盗等犯罪活动的工具。这种利用AI技术融合他人面孔和声音、制造真切的合成图像来实施的新型网络诈骗,显现手段愈发多样、门槛大幅下降、鉴别难度加大等特点,常令消费者放松警惕,短时间内造成较大损失。
对此,金融消费者除应对提供个人信息、提供手机短信验证码等涉及重要决策或敏感信息的要求时,保持高度警惕外,厦门金融监管局特别提示,AI拟声、AI换脸包装作伪后的通话,虽能真切地模仿原始人物的语言和行为,但仍布满破绽。例如,眨眼频率过低、眼睛移动不协调、面部脸色不自然、唇形不相配、语句不连贯等。
吉林金融监管局在2023年10月13日的危险提示中还尤其关注到有点年纪的人群体。“对新兴AI技术不了解不敏感的有点年纪的人往往成为‘AI换脸’诈骗的潜在受害者,广大消费者在对身边的该类人群加强常规反诈提示的同时,也要谨防揭示非法分子的新手段”。该局表示。
除“AI换脸拟声”类金融诈骗外,金融监管总局在今日(即2024年7月24日)的危险提示中,还就“共享屏幕”类、虚假网络投资理财类及 网络游戏 产品虚假交易类新型金融诈骗做以充分说明,同时表示,金融消费者如果发现陷入诈骗陷阱造成资金受损,或发现涉嫌违法犯罪线索,应保存好聊天记录、通话录音、交易截屏等有关证据,及时向公安机关反映,切不可轻信网络上自称“网络警察”“黑客”等组织或人员,避免再次受骗。