商业洞察

【大模型】上千份问卷披露用户生成式AI风险感知 - 最怕虚假信息与欺诈

查看信息来源】   12-18 19:48:15  
生成式AI】【受访者

  2024年,大模型浪潮逐渐迈入了应用深化与广泛落地的关键阶段,集成了生成式AI技术的新产品以多种形式进入人们的日常生活,成为工作、创作和娱乐的重要助手。不过,新AI技术与各行业深入融合的同时,也引发了 数据安全 、版权归属、伦理挑战等一系列担忧。

  12月18日下午,由南都 数字经济 治理研究中心联合清华大学智能法治研究院主办的第八届啄木鸟数据治理论坛在北京举行,来自政府、学术界、法律界、技术机构和企业等领域的专家学者围绕“AI应用落地提速,如何向善治理”主题展开探讨。会上,南都 数字经济 治理研究中心发布了《生成式AI用户风险感知和信息透明度测评报告(2024)》。

  报告披露,经问卷调研发现,近九成受访者对生成式AI的潜在风险有一定认识,但深入了解的比率相对较低。虚假信息与欺诈最令受访者担忧,隐私与 数据安全 、科研诚信风险、版权作品被偷用也引起普遍担忧。对于AI深度合成技术被滥用的问题,支持通过立法和对生成内容添加明确标识遏制此类现象的人数最多。

超六成受访者高频使用生成式AI

  本次问卷投放历时20天,共收回1648份有效问卷。问卷包含21个问题,涉及生成式AI产品的总体使用情况、风险总体感知度、具体风险感知度和基本信息四个部分。通过对问卷的数据分析,试图显现当前用户对生成式AI的使用情况、对生成内容质量的评价,和对相关风险的认知与态度。

  此次受访人群中,男女比例约为4:6;近四成受访者在25-34岁,近三成在18-24岁。同时,超六成受访者拥有本科学历,研究生及以上的高学历人群占比达四分之一;从事公司职员(除法务外)的受访者占比最高,其次在校学生、公职人员/事业单位人员也是两大受访群体。从居住地看,受访者来自全国30个省市,以北京、安徽、广东等地居多。 图片

问卷样本职业特征

  从整体使用情况看,近45%受访者我们时常使用生成式AI产品,15.35%称“频繁”使用,“偶尔”使用的受访者占到32.16%,这意味着大多数用户都对生成式AI产品有相应的使用频率。在称“偶尔”或“历来不用”的受访者中,女性的占比男性高,不过一旦“上手”后,女性我们时常使用的频率高于男性。 图片

受访者使用生成式AI频率

  在产品偏好方面,受访者使用最多的几款生成式AI是百度文心一言(61.81%)、ChatGPT(47.17%)、字节豆包(39.85%)、 科大讯飞 星火(19.43%)、Kimi(18.9%)、通义千问(12.77%)。可以看出,市场上提供的生成式AI产品很多,但用户选择集中度较高,尤其在国内使用有一定限制的ChatGPT也备受青睐。 图片

受访者最常使用的生成式AI产品

  这群人群使用生成式AI产品用于哪些目的?调查结果显示,近八成受访者称主要用于办公场景,超六成称用于学习科研场景,这反映了AI工具有助于提升工作和学习效率。

  另外,用于内容创作的占比为40.59%,用户在创意领域已经开始采用生成式AI;用于生活娱乐目的的占33.4%,而情感陪伴的使用比例仅有10.58%,说明在心理支持和情感陪伴方面,用户对生成式AI接受度较低。 图片

生成式AI的主要使用场景

  在内容质量评价方面,受访者认为生成式AI最值得信任的是“文本内容的可靠性和逻辑性”,其次是“对话的自然性和互动性”,而绘画、音频和视频生成的质量相对较低,尤其是视频生成。这说明用户对AI大模型的文本、对话能力的认可度更高,但在音视频、绘画创作上,其实际能力与用户期待仍有差距。

超七成受访者对生成式AI潜在风险“略有了解”

  2024年是大模型“应用落地之年”,随着大模型应用的日益普及,更多用户开始使用和掌控它。对新技术抱有期待的同时,也引发了公众对于虚假信息、算法歧视、侵犯 知识产权数据安全 、个人隐私泄露、就业冲击等担忧。

  问卷结果显示,大多数受访者(76.76%)对生成式AI的潜在风险“略有了解”,“非常了解”的人占比仅为12.01%,另有11.23%的人表示完全不了解。这说明虽然很多人对生成式AI有相应的理解,但深入了解的比率相对较低。结合使用频率看,使用生成式AI越频繁的人,对其潜在风险的了解水平越高。 图片

受访者对生成式AI各项风险的担忧水平

  受访者对于不同潜在风险的担忧水平也存在明显不同。其中虚假信息与欺诈最令受访者担忧,其次是隐私与 数据安全 ,另外科研诚信风险、版权作品被偷用风险的担忧水平也较高。

  结合性别特征继续分析发现,受访女性对生成式AI造成的隐私风险的担忧水平整体都高于男性。反观职业替代风险方面,男性选择完全不担忧或不太担忧被AI替代的比率明显高于女性,说明面对AI“抢饭碗”的竞争,男性比女性认为自身不可替代性更强。 图片

不同性别群体对AI隐私风险的认知

  生成式AI潜在风险类型多样,但大体上涉及用户隐私 数据安全 、版权作品保护、深度伪造和AI情感陪伴上瘾等,报告就该四个方面作出进一步分析。

  在隐私 数据安全 风险方面,约三成受访者了解网络平台利用个人数据训练大模型,另有57.83%的受访者对此有所耳闻,这显示出当前公众对数据“喂养”大模型议题的高关注度。交叉分析发现,使用大模型服务频率越高和学历越高的受访者,对平台利用个人数据训练大模型的情景更为了解。 图片

生成式AI使用频率与用户数据投喂AI训练知悉度分析

  调查还发现,大多数用户其实不排斥将数据免费提供给网络平台使用——赞同将用户数据用于训练大模型的比率超过一半,但前提是平台作出具体说明且保护好个人数据。如果加上“无所谓”的人群,合计比例接近六成。不过,不可忽视超四成受访者不赞同平台使用个人数据训练,且要求平台提供拒绝和退出功能。另外,超七成受访者采取过措施来保护自己在网络平台的数据和隐私。

  从生成式AI出世以来,是否应将版权作品用于大模型训练并入合理使用制度保护范畴的问题就持续困惑着司法实务界。调查发现,仅11.23%的人赞同将版权作品用于训练大模型并入合理使用范畴,高达42.72%的人认为务必征得版权人同意方能使用,还有43.33%的认为需要分情况讨论,例如区分商业和非商业使用、区分作品的深加工和浅加工。 图片

受访者对版权作品用于训练大模型的意见

  版权归属问题上,14.87%的受访者认为,生成内容版权完全归用户自己;另有高达72.82%的受访者则考量在生成内容可版权性的条件上,再进一步把受版权法保护的作品属于用户。两个数据指向的最终版权归属均为用户,合计比例达87.69%。

  AI生成影像、换声及换脸技术被滥用可能造成虚假信息制造和流传问题,对个人权益、社会安全等构成严重要挟。问卷结果显示,近九成受访者对AI拟声、AI换脸等深度合成技术被滥用的情景“有所耳闻”,7.65%的受访者表示有过相关遭遇,二者合计占比94.42%,说明公众对深度合成技术滥用的认知普遍较高。

  如何解决这些技术滥用问题?32.22%受访者认为当下最迫切的是制定出台规制AI做假的政策文件,即支持通过立法扼制技术滥用现象的人最多;其次是对AI生成内容添加明确的标识(22.94%);加大行政监管打击惩处力度(17.29%)排在第叁,平台加大对AI生成内容的监测审核(13.35%)位列第四。 图片

受访者对扼制AI技术滥用行为应采取措施的态度

  交叉对照还可以看出,在“非常了解”生成式AI风险的受访者中,25.76%认为最迫切的应对措施是对AI生成内容添加明确标识,“略有了解”的比率也为23.4%,而完全不了解风险的群体中,这一比例仅16.76%。这说明对生成式AI风险感知越高,越重视生成内容标识的必要性。

  AI陪伴已经是当下 人工智能 领域成长最迅速的赛道之一,但随着“AI复活热”引发一系列法律伦理争议,今年10月一起与AI陪伴产品相关的美国少年轻生诉讼案出现,其潜在风险正逐渐显露。

  问卷结果显示,超过八成(81.67%)受访者听说过满足情感需求的AI陪伴产品,还有7.46%使用过产品,11%受访者没听说过。从性别来看,听说过此类产品的女性受访者比例略高于男性,但男性的使用比例略高于女性,他们更倾向于认为AI陪伴产品能提供情感代偿。

  问及AI陪伴产品能否提供情感代偿,37.14%受访者选择“不好说”,占比最高;36.77%持否定意见,另外26.09%给肯定答案。说明公众对AI陪伴产品能造成的情感交互体验,持保存态度的居多。超四成受访者认为应对所有AI陪伴产品用户作出提醒和限制,39.20%认为仅对未成年人、老年人等特殊群体有必要。 图片

受访者对是否提供提醒和限制使用AI陪伴产品的态度

学历越高、法律素养越高的人越倾向于逐步推动立法

  随着公众对生成式AI潜在风险的关注愈发加深,越来越多受访者认为应通过专门的法律来应对隐私保护、 数据安全 和AI造成的伦理挑战等诸多问题。

  调查结果显示,近九成受访者对AI立法持积极态度。具体而言,超过一半(53.40%)的受访者认为应尽快制定专门的法律框架,以应对生成式AI造成的潜在风险。同时,约34.28%受访者虽然不认为立法务必立即出台,但也支持启动立法程序,开展相关讨论与准备。这两项合计占据了87.68%的比率。 图片

受访者对AI立法的意见

  交叉分析可以发现,受访者对AI立法的支持度与他们的教育水平、职业背景密切相关。高中及以下学历的群体中,约42.5%的受访者支持尽快制定法律;大专和本科学历群体的支持度明显提高,分别为56.32%和57.46%。值得注意的是,硕士和博士群体则表现出较为审慎的态度,虽然支持尽快立法的比率仍然较高,但有更大比例的人倾向于认为应启动立法程序,分别为42.86%和45.07%。

  从职业看,律师、法务人员和高校科研人员对 人工智能 立法的态度较为审慎。50.85%的律师支持启动立法程序;高校学者及科研人员中,45.45%的人支持尽快立法,43.18%主张启动立法程序。相比之下,企业主和公司职员对峙法的支持则较为强烈,其中54.84%和54.27%的人支持尽快出台法律,这或许反映了其对 人工智能 在商业领域应用的期待和对规范化管理的迫切需求。 图片

不同学历群体对AI立法的意见

  其实, 人工智能 立法已经被我国立法部门提上日程。全国人大常委会2024年度立法工作计划,将“ 人工智能 健康发展等方面的立法项目”列入预备审议项目;国务院2024年度立法工作计划亦明确“预备提请全国人大常委会审议 人工智能 法草案”。今年6月,国家网信办副主任王崧专门回应了 人工智能 立法的热点问题,称将重视专门性立法和综合性立法相结合,推动 人工智能 健康有序发展。

繁体中文