信息资讯
【AI诈骗】半数受访大学生曾遭遇疑似AI诈骗,专家呼吁关注大模型安全
【信息来源】 11-14 8:00:39随同生成式AI的迅猛发展,普通人应用的门槛越来越低:10秒就能克隆声音,复刻你的相片,甚至能生成“你”的视频。这为新型的诈骗提供了技术土壤,AI诈骗成为社会关注热点。
不久前,一场第叁方机构发起的大学生调研,在回收的近1500份有效调盘问卷中,半数受访大学生我或身边的人曾遭遇疑似AI诈骗,7成大学生对AI诈骗感到恐慌,表示自己会被AI诈骗。调研结果显示,很多受访大学生认为高校可以设置AI课程、大模型攻防竞赛等科普教育活动,让大家提升AI反诈意识。
由于大模型在与用户交互进程中,涉及大量个人信息和数据,业内专家呼吁应提高自身安全意识、保护个人信息安全。同时,业界共同关注大模型安全刻不容缓。
半数受访大学生曾遭遇疑似AI诈骗
该调查样本选取了四川、北京、上海等地近10所大学的近1500名大学生。数据显示,半数的受访大学生我或身边的人曾遭遇疑似AI诈骗,其中不乏硕士及博士等学历的学生。诈骗形式最多的是电话,同时也包含AI换脸、AI音频伪造、视频做假、AI投资顾问骗局等,其中一半以上受访大学生,表示接到过疑似诈骗的 机器人 电话。高达77%的受访大学生会因为AI诈骗方式漫山遍野感到恐慌。
在调研实地走访高校进程中,很多大学生表示,对于当下的AI诈骗伎俩,自己没有绝对把握识别骗局;对于现场测试的某企业家的AI合成音频,近8成大学生无法分辨是真人还是AI制作。很多大学生表达了担忧,如若爸妈辈遭遇诈骗,后果无法估量。另外,有74%的受访大学生认为自己有可能会被AI诈骗,防不胜防和容易被坑成为他们在形容自己AI诈骗意识时候的关键词。
很多受访大学生认为高校可以设置大模型攻防等相关竞赛或其它科普活动,让大家提升AI反诈意识,关注大模型安全。
AI诈骗关乎用户隐私专家呼吁攻坚大模型安全
“当下AI诈骗主要分为语音诈骗、文本诈骗、视频诈骗等几种类型。AI拟音、换脸,是基于真人信息,这也意味着AI诈骗背后是用户隐私的泄漏。”蚂蚁集团安全实验室首席科学家、全球AI大模型攻防挑战赛评审委员会委员王维强指出,保护大模型与保障用户隐私紧密相连。大模型在与用户交互的进程中,不可避免地会涉及大量的个人信息和数据,一旦存在各种漏洞和缺陷,极有可能引发严重后果。只有切实保障大模型安全,才能为用户的合法权益筑起坚固的防护墙。“安全,是大模型技术持续发展的坚实地基。”王维强总结。
如何守护大模型安全?王维强建议,不能仅仅依赖技术手段,还需要加强安全规范和安全意识。只有当技术、规范和意识三者协同发力,我们才能真正守护好大模型的安全,为其持续健康发展创造良好的条件。
基于此,由中国图象图形学学会、蚂蚁集团、云安全联盟(CSA)大中华区联合主办,联合清华大学、上海交通大学、浙江大学等高校及多家产学研组织共同发起的,国内首个AI大模型攻防挑战赛,通过大模型技术攻防实战演练,助力 AI反诈,保护大模型安全。
记者了解到,赛事启动直到今天,吸引了全球范围内2700多个赛队、3200余名技术精英参与,覆盖中国、美国、英国、印度、韩国等18个国家和地区。