随着科技的飞速进步, 人工智能 (AI)已逐渐渗透到社会生活的各个方面,从千行百业到衣食住行,AI技术在赋能发展和提升效率的同时,也造成了一系列新问题和新挑战。尤其是在公共管理领域,怎样在享受技术红利的同时,又规避安全风险,非常重要。好比人脸识别技术是AI领域的一个重要应用,但怎样在使用的同时保护好个人隐私和 数据安全 ?AI成为创作者是否会引发 知识产权 深刻变革?AI法律监管体系如何完善?……
AI到底应该如何“管”?针对上述问题,《中国经济周刊》记者邀约了清华大学公共管理学院教授、 人工智能 治理研究中心主任梁正, 北京市 政协经济委员会副主任、振兴国际智库理事长李志起,中国政法大学流传法研究中心副主任朱巍,对外经济贸易大学 数字经济 与法律创新研究中心主任许可,从各自的专业领域来解疑释惑、建言献策。
梁正:AI大模型对公共管理造成机遇与挑战
AI大模型是指具有极其大规模参数(通常在10亿个以上)和超强计算资源的机器学习模型,它的应用有助于赋能政府的治理转型,通过构建“智能体”来推动公共服务的智慧化跃升,并为政府长期以来的数字化建设提供新的技术助力。具体而言,AI大模型为公共管理转型提供了以下潜力。
第壹,深度挖掘政务 大数据 ,优化政务决策模式。传统政务决策模式往往受限于决策者的有限理性,只能实现决策方案的局部最优,并遵循“渐进式”的决策优化逻辑。相比之下,AI大模型能抓取海量的政务 大数据 ,从中提炼出有价值的信息,利用强大的数据处理能力开展训练和分析,以预测为导向实现全局最优决策。在这一方面,AI大模型不仅可以直接提高预测的可靠性与准确率,而且能够为决策者提供间接性的信息支持。
第贰,创造虚拟行政人员,推动新型政民互动。传统政民互动方式以行政人员与公民的点对点交流为主,这既可能引发公众对于行政人员自由裁量权的担忧,也有可能增加行政人员的工作负担和职业倦怠。相比之下,大模型可以同时处理多项公民诉求,实现情境性、个性化的响应与反馈,保证服务的效率与一致性,并将行政人员从繁琐化、机械化与重复性的行政事务中解放出来。
第叁,推动组织数据集成,整合跨领域政务运作。庞大政府组织往往面临着不同部门的“信息烟囱”与“各自为政”等困境,这不仅源于部门间缺乏数据共享动机,而且受到数据标准不一样的约束。相比之下,大模型可以解决复杂数据的整合问题,为数据的获取、传输、存储、训练、分析与应用提供技术支撑。同时,大模型可以适用于不一样的政务服务场景,这为不同部门间共享和协调本部门数据提供了有效激励。
尽管如此,仍需警惕AI大模型的开发与使用造成的公共价值困境。
首先是AI大模型的“黑匣子”问题。 人工智能 技术一直被诟病于不可访问性、不透明性和不可解释性的“黑匣子”属性,政务大模型中的“智能涌现”(指 人工智能 大模型参数量超过一定规模后能力会陡然提升,可能会出现预期之外的能力)更是加剧了这一问题。大模型“智能”背后原因和逻辑的缺失会降低其结果的可信性与合法性。
其次是AI大模型的隐私与价值问题。AI大模型依赖于海量的政务数据作为输入,这些数据通常涵盖了公民的个人信息,造成模型训练与公民隐私间的冲突。同时,AI大模型的输出可能会面临价值权衡的问题,在美国和荷兰发生的一些 人工智能 事故就反映了效率与公平间的张力,造成了恶劣的社会影响。
最后是AI大模型的危险与问责问题。AI大模型的高度技术复杂性降低了公共管理者在行政流程中的自主性,并可能发生技术依赖,造成管理者难以进行有效监督和审核,造成公共风险的累积与放大。同时,AI大模型在公共问责上存在着“多手”和“多眼”的问题:能否厘清不同主体的问责分配,和能否满足不同利益相关者的诉求。
因此,需要通过正确的治理机制和伦理监管,确保其应用既符合技术进步的要求,也顾及公共利益和道德伦理的标准。在这一方面,公共管理者应当始终坚持“以人为本”的基本规则,以公众的实际感受为标准,鼓励公众参与到 人工智能 大模型的部署、运行、评估与反馈中来。
李志起:AI人脸识别技术需规范与发展并行
随着科技的飞速进步, 人工智能 (AI)已逐渐渗透到我们生活的各个方面,其中人脸识别技术作为AI领域的一个重要应用,正广泛应用于安全监控、金融支付、身份验证等多个领域。然而,任何技术的双刃剑效应都不容忽视,人脸识别技术在造成便利的同时,也引发了一系列关于隐私保护、 数据安全 和伦理道德的讨论,近期上海要求不得对旅客进行“强制刷脸”核验的公告也引发舆论的广泛关注。
人脸识别技术的广泛应用,为社会治理和公共服务提供了强有力的技术支撑。好比,在公共安全领域,人脸识别技术可以助推警方迅速锁定犯罪嫌疑人,提高案件侦破效率;在商业领域,该技术可以提升客户体验,实现无接触支付等功能。可是,技术的双刃剑效应也在人脸识别技术上表现得淋漓尽致。一方面,由于人脸识别技术的高度精确性,使得个人隐私泄露的危险大大增加,一旦数据被滥用或泄露,后果无法估量。另一方面,误识和滥用的存在性也引发了公众对于技术可靠性的担忧。
因此,规范AI人脸识别技术的发展势在必行。首先,需要从立法层面对人脸识别技术进行规范。2023年8月8日,国家网信办发布了《人脸识别技术应用安全管理规定(试行)(征求建议稿)》,对明确人脸识别技术的使用范围、数据处理方式和责任主体,确保个人隐私不受侵犯等方面拟作出新规定;2024年7月1日起即将施行的消保法首部配套行政法规——《消费者权益保护法实施条例》也要求不得过度收集消费者个人信息。笔者同时认为,对于违规使用人脸识别技术的表现,还应给予严厉的法律严惩,以此来保护公民的合法权益。
其次,行业内部应建立起严格的自律机制。企业作为技术开发和应用的主体,有责任也有义务确保其所使用的技术不会侵犯用户隐私。这就要求企业在开发和应用人脸识别技术时,务必遵循相关的法律法规,同时还需要建立起完善的数据保护机制,确保用户数据的安全性和完整性。
另外,公众对于人脸识别技术的认知和接受水平也是影响其发展的重要因素。因此,强化公众的科学素养教育,提高公众对于新技术的认知和理解能力,也是推动人脸识别技术规范发展的关键一环。只有当公众充分了解并信任这项技术时,它才能更好地服务于社会。
同时,务必要谨防的一个问题是,规范人脸识别技术其实不等于简单“一刀切”叫停该技术的发展。人脸识别技术作为 人工智能 领域的一个分支,其发展也势必受到 人工智能 技术整体发展趋势的影响。随着5G、 云计算 、 大数据 等技术的不断发展,人脸识别技术也将迎来更多的应用场景和发展机遇。因此,在规范人脸识别技术发展的同时,我们还应积极探索其在各个领域的应用潜力,推动其与其它技术的融合发展。好比,我们应进一步鼓励技术创新,通过技术手段来提高人脸识别技术的准确性和可靠性,应充分考虑不同地区和群体的实际需求,确保人脸识别技术的普及和惠及面。因此,在推广人脸识别技术时,需要充分考虑不同地区和群体的实际需求,确保技术的普及和惠及面。
公众期待一个更加智能化、便捷化、安全化的社会环境,人脸识别技术无疑将是实现这一目标的重要工具之一。在这一技术的发展中,只有通过全社会的共同努力和协同治理,才能确保人脸识别技术能够健康、有序地发展,并最终造福于人类社会。
朱巍:AI创作或引发 知识产权 深刻变革
AI大模型的快速发展在全球范围内造成了绝无仅有的生成式 人工智能 (AIGC)热潮。好比,人们只需要输入一些提示词,AI就能相应地产出你想要的文章、视频、音频、图像等。当前,生成式 人工智能 正在引发新一轮 人工智能 革命,AIGC不仅改变了信息和知识的生产方式,重塑了人类与技术的交互模式,还开启了我们对于通用 人工智能 的无穷想象。但 人工智能 也有“成长的苦恼”,好比,一个近在眼前的问题是:AI作品是否享有著作权?
基于现有的法律体系,这些生成的作品是否受到著作权法保护有一定争议,应该分类型来具体分析。
第壹个问题:明确AI作品版权主体。
AI作品的作品权涉及多个主体。首先,AI使用者是第壹个主体。好比,AI使用者通过AI工具画了几幅画,这些画到底有没有版权?从此前法院判例看,AI使用者拥有这些画的版权。但这个判例的条件,是基于AI服务提供者与网民协议缺乏具体版权约定的情景下作出的。若使用者在接受服务之前,与服务提供者之间有版权协议的话,版权的最终归属权还是要看协议约定。
AI作品的第贰个主体是AI服务提供者,主要是指 人工智能 的软件或平台有没有对生成作品的版权。这个需要根据使用者协议来进行判断,AI在使用的进程中,如果与AI生成者没有特殊性约定,AI作品的作品权归使用者,平台很难获得版权。
第叁个主体是AI学习的物料版权问题。AI之所以会变得智能,肯定要学习很多物料。AI机器在学习的过程当中,需要使用大量的享有版权的内容,才可以不断地去完善。那么,AI学习进程中使用享有版权的内容构不构成侵权,这也是目前法律上一个具有争议性的问题。记者了解到,目前甭管是国内还是国际规定,AI学习的物料应当是之前有版权或之后获得版权人许可。
第贰个问题:AI版权立法应跟得上时代发展。
AI没有出现之前,一个作品之所以拥有版权的一个基本规则叫“额头出汗”原则,“额头出汗”原则(或称辛勤原则)是一条 知识产权 法律原则,尤其关系到著作权法。根据这条法律原则,作者通过创作时所付出的劳动就可获得著作权。可是在AI出现以后,获得的作品是否付出了相关劳动就不好判断,因为大部分工作是由AI完成,这给版权权利授权造成冲击。现在所有的版权制度,一般都是基于工业革命时代形成的版权体系。即便我国的作品权法已经更改了三次,其实也是工业时代的作品权法,其实不是互联网时代的法律。
第叁个问题:以技术对技术的版权保护模式。
针对AI著作权问题,用 区块链 技术+智能合约的形式加以分配更为妥当。 区块链 以分布记账的形式确保作品的可追溯、不可篡改,智能合约则偏重作品使用的利益分配。二者结合,可以将技术在一定水平上取代制度,妥善处理AI作品使用、处罚和利益分配等诸多问题。
其实版权保护的核心不在于不让使用未经权利人许可的内容,重点在于鼓励创新。所以要做到既鼓励创新、保护权利人,又能平衡社会整体发展的权利, 区块链 中的智能合约的分成制度是可以做到的,可以将当前的作品权法中的有关规定放到 区块链 上,这就是法律的技术化过程。
总之,人类创作方式的变革,将会引发 知识产权 的深刻变革,引发 知识产权 的主体、客体和内容三个方面的深刻变革。我们的思维不应仅停留在工业时代的立法,应全面进入到AI时代。
许可:AI不断进化,法律应改进式创新
40年前,英国社会学家科林格里奇曾言:当某项科技还没完全成熟和广泛应用之时,法律尚有机会和能力去影响其发展,但此时我们其实不晓得它会造成何种社会后果;相反,当我们可以清楚预见到某项科技引发的后果时,它往往已经成熟且被广泛使用,以至于法律很难对其作出本质改变了。这就是“科林格里奇困境”。当然, 人工智能 恰恰是这样一种影响未知但又潜力无穷的科技。不仅如此, 人工智能 作为“未完成之事物”,进一步加剧了科林格里奇困境。
为了化解 人工智能 的科林格里奇困境,各国纷纷未雨绸缪。可是,各国不甘落伍的立法未必是最好的回应举措。其中事理至为简明:如果缺乏对 人工智能 规律和趋势的充分认识,只能陷入“法令滋彰,盗贼多有”的困境,而这正是科林格里奇困境的本质问题。然则,有无解决之道?
其实,处理问题的关键是放弃整全式的 人工智能 立法构想。与科技的推翻性创新不同,法律永远是改进式的创新。新的立法绝不是要废止在同一调整范围内的一切旧法,而是通过补充使之完善。将此观点运用于我国的 人工智能 立法,一方面可以从既有制度汲取经验,另一方面则应采取应改尽改的准则,使法律与 人工智能 发展同频共振。
就前者论之,我国的算法规制可首先作为 人工智能 法律的重要内容。2021年12月,国家网信办会同工信部、公安部、市场监管总局出台了《互联网信息服务算法推荐管理规定》,该规定可谓对算法相关问题的阶段性法律回应;2022年11月,国家网信办联合工信部、公安部发布了《互联网信息服务深度合成管理规定》,明确了深度合成服务的适用范围、深度合成服务提供者、使用者和技术支援者的相关义务规定与安全主体责任,强化了对互联网信息服务深度合成的监督和管理。
其次,个人信息保护法下自动化决策规则对于 人工智能 治理有重要参考价值。所谓自动化决策,是指通过计算机程序自动分析、评估个人的表现习惯、兴趣爱好或经济、健康、信用状况等,并进行决策的活动。该法规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不正确的不同待遇。”“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的形式作出决定。”
再次,规范科技伦理的审查工作有益于降低 人工智能 的伦理风险。2023年9月,科技部等部委联合发布《科技伦理审查办法(试行)》,规定“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及全面的研发”及“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策全面的研发”均需要开展伦理审查复核。
最后,生成式 人工智能 规则为 人工智能 立法提供经验储蓄。2023年7月,国家网信办等联合发布《生成式 人工智能 服务管理暂行办法》,规定了生成式 人工智能 服务提供者与使用者的合规举措,确立了分类分级监管与行业部门监管相辅相成的监察管理体系。就后者论之, 人工智能 的发展也给个人信息保护法、 数据安全 法、 网络安全 法、电子商务法、著作权法、民法典等一系列法律造成了冲击,亟待通过修法予以调适。