一段时期以来,在很多地区警方通报的诽谤传谣事件中,都有“AI软件”“大模型”“自动生成”等字眼。更严峻的是,有些AI软件的“诽谤效率”非常惊人。好比,出现了“一天能生成19万篇文章”的做假软件。据查获该软件的西安警方介绍,用户从专门售卖新闻稿件的网络平台购买大量的真实新闻稿件,形成“稿池”;再通过做假软件,输入自己的切实需求,由软件自动生成文稿。该软件将真实的新闻稿件拼凑、前后段落颠倒、同义词替换后,能形成一篇篇反映同一件事情但类型不一样的文章。
这些假新闻有啥用呢?其背后有专门的“牟利账号”。相关账号的使用者有组织地将这些文章发布到相关平台,再利用平台的流量奖励制度等获取利益。目前,该案涉及的账号已经被平台查封,有关软件和服务器也被关闭。
以上案例说明, 人工智能 技术无疑是把“双刃剑”,在助力各行各业的同时,也造成了批量做假的副作用,甚至已经出现了“跑断腿都来不及辟谣”的新困境。
在这种情景下,只有源头治理,才能减少谣言的数量。一方面,平台应当加大审查力度。目前,很多平台已经明确,要求用户对 人工智能 生成类内容加以标注,并对包含虚构、演绎等环节的内容,也要明确加注虚构标签。对于违规的账号会采取“封号”等举措,但这已是谣言流传的事后管理方式。若要切断谣言流传源头,有必要推出更有效的事前和事中防范措施。好比,账号注册核验、动态巡查、调整流量分成制度等。
另一方面,应当明确软件开发者、技术应用者的谣言治理责任。部分大模型开发者表示会通过后台设置的形式,对通过大模型生成的内容打上水印,告知用户。但部分小的软件开发商,和那些专门开发“AI做假”软件的应用者,不仅不会设置标签,而且想方设法去除标签、绕开监管。因此,有必要明确技术应用者及软件开发者的责任。对那些默许、放任甚至故意编写软件诽谤传谣的人员,严厉责罚不贷。
最后,无妨在谣言治理中引入 人工智能 技术。现有的 人工智能 技术已经有能力“一目千行”“一目万行”,从海量真实新闻中发现做假文章的拼凑痕迹。如果有对应的模型,无疑能及时填补人工核查的缺陷,快速有效识别AI做假。
随着AI生成技术的普及,信息虚构的门槛越来越低,需要审核的信息越来越多。这个时候迫切需要“科技向善”的导向,鼓励开发者从技术研发、产业应用、制度设计等各方面加强合作,形成AI谣言治理的组合拳。 本站记者任翀