在给人们造成惊喜之余,AI也衍生出了数据泄露、电信诈骗、个人隐私风险等诸多问题。对此,各国纷纷制定相关政策法规,规范AI的使用。在国内,此前国家网信办、国家发展和改革委员会(以下简称“国家发展改革委”)等七部门联合发布《生成式 人工智能 服务管理暂行办法》;美国此前也发布了一系列监管文件。
在较早将AI监管议题提上日程的欧洲地区,AI监管法案也将落地。此前,欧洲议会曾通过了《 人工智能 法案》(AI Act)谈判授权草案。但法案的后续谈判进行了6个月之久,这也让外界发生了欧盟是否会在AI领域落伍的担忧。
不过,据外媒最新消息,欧洲议会、欧盟成员国和欧盟委员会的谈判代表已就生成式 人工智能 工具的一系列控制措施达成一致。《中国经营报》记者了解到,其中就包含在全球关注度都很高的OpenAI的ChatGPT和谷歌的Bard。
狂欢下的隐忧
从去年年底由OpenAI研发的ChatGPT引发的AI浪潮,其发展速度超出了所有人的向往,对各个行业的渗透性、扩散性和推翻性日积月累,尤其是以预训练大模型、AI for Science等为代表的新兴技术正在引发新一轮 AI 创新热潮。随同大模型造成的生成式 AI 突破,科技、经济、社会等领域也有望迎来深刻变革。
这种推翻性主要体现在,大模型的技术迅速迭代,打破了原有AI技术发展的上限,显现出数据巨量化、模型通用化、应用模式中心化等特点,以“无限生产”的能力重塑企业生产引擎,推动生产效率推翻式提升。从全球范围看,世界各地均在积极推动大模型研发和应用。
但这时,关于AI监管的问题讨论也始终在持续。
当前,生成式AI的快速发展与相关法律法规、标准体系和伦理规范的建立存在矛盾。隐私与数据保护风险、著作权侵权风险、深度伪造风险、失业加剧风险,和歧视与偏见风险等诸多问题正在不断袒露。
随着问题的凸显,各国也把对于AI的监察管理提上日程。斯坦福大学发布的《2023年 人工智能 指数报告》中提到,对127个国家的立法记录调研的结果显示,包含“ 人工智能 ”的法案被通过成为法律的数量,从2016年的仅1个增长到2022年的37个。该报告对自2016年以来81个国家的 人工智能 法律法规记录的分析也同样表明,全球立法程序中提及 人工智能 的次数增加了近6.5倍。
除了中美两国之外,欧盟在推动AI立法监管上则相对缓慢。
2023年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《 人工智能 法案》谈判授权草案。根据欧盟立法程序,在此之后,欧洲议会、欧盟成员国和欧盟委员会在进行“三方谈判”后,以确定法案的最终条款。
据了解,上述草案包含用于监管基础模型的分级管理方法,基础模型的定义是拥有超过4500万用户的模型。聊天 机器人 ChatGPT被定义为非常有能力的条件模型(very capable foundation models,简称VCFM),VCFM需承担额外的义务,包含定期审查以发现潜在漏洞。
值得注意的是,针对上述法案的谈判进行了6个月之久。争议之处是怎样在保护自家的 人工智能 草创企业与潜在的社会风险之间找到平衡。包含法国和德国在内的一些欧盟国家反对这些规定,称它们会不必要地阻碍本土企业。
对此,谷歌全球总裁兼首席法律官肯特·沃克(Kent Walker)表示,欧盟应该以最好的AI规则为目标,而不是制定出第壹部AI法规。他表示:“技术领先地位需要在创新和监管之间取得平衡。监管机构不应对 人工智能 发展进行限制,而是在违反公众信任时追究其责任。”
肯特·沃克说:“我们早就说过,AI太重要了,既不能放任不管,也不能不好好监管。监管机构应竞相制定最好的AI法规,而不是第壹个AI法规。”
OpenAI首席执行官萨姆·奥特曼(Sam Altman)也认为:“我们不用严格的监察管理,未来几代人可能也不用。但在某种水平上,当一个AI模型可以提供的产出相当于整个公司、整个国家或整个世界时,也许我们的确需要一些集体监督。”
不过,荷兰数字化大臣Alexandra Van Huffelen表示:“欧盟务必在今年年底前达成协议,尤其是在通用 人工智能 方面。全世界都在关注我们,公民、利益相关者、非政府组织和私营部门都期待我们就 人工智能 达成一项有意义的立法。”
而在政治风险咨询公司Eurasia Group的科技政策分析师尼克·莱纳斯(Nick Reiners)看来,“欧盟 人工智能 法案很难成为行业监管的全球黄金标准,在明年欧洲议会选举之前可能无法达成一致,在周三的最后一轮谈判中,需要敲定的事情实在太多了,即便他们按预期工作到深夜,可能也要推迟到明年了。”
监管成全球共识
不仅是在欧洲,生成式AI的伦理和安全治理已经成为全球 AI 领域普遍关注的议题。
在中国,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部等七部门于2023年7月13日联合公布了《生成式 人工智能 服务管理暂行办法》,坚持发展与安全并重的准则,鼓励创新与治理相结合,实施了包容审慎和分类分级的监察管理措施,旨在提高监管的高效性、精确性和敏捷性,并于2023年8月15日开始施行。
美国则发布了一系列自愿性标准,如《AI风险管理框架》和《AI权利法案蓝图》,重点强调 AI 的创新和发展,倾向于采用组织自愿遵守的指南、框架或标准等方式进行 AI 应用的软治理。
另外,在2023年10月,联合国也成立了一个顶级别 人工智能 咨询机构,专门针对AI技术造成的危险和机遇进行探讨,同时为国际社会加强治理提供支持。
在此前举办的 人工智能 安全峰会(AI Safety Summit)上,美国、中国、欧盟等28个国家的代表和企业签署了《布莱切利 人工智能 安全宣言》,这份宣言重申了“以人为方向、可信任的和负责任的”(human-centric, trustworthy and responsible)AI发展模式,呼吁国际社会的合作,并强调AI的实施以保障人权和实现联合国可持续发展目标为目的。
中国科技部副部长吴朝晖在此次峰会上表示, 人工智能 治理是全球各国共同面临的重要课题。他强调,在发展 人工智能 的同时,应当积极提倡以人为本,智能向善,强化技术风险管控。同时,吴朝晖还提出了增强发展中国家在 人工智能 全球治理中的代表性和讲话权的建议,以弥合智能鸿沟和治理能力差距。
中国科学院自动化研究所研究员曾毅认为,虽然先进 人工智能 有可能通过解决当前健康、教育、环境、科学等领域的未解挑战,但创造这些好处的 人工智能 系统,本身的属性也成了巨大的危险来源。当规模更大、不确定性更大的模型向所有人开放时,误用、滥用问题将不仅是 人工智能 科学家面临的挑战,也是全世界面临的挑战。他还提出:“我们需要建立一个涵盖全世界的 人工智能 安全网络,以解决不可预知的进展和失败。”