安大互联
财经热点 > 财经资讯 > AI立法进行时① - 该以何种姿态面对颠覆者?
【人工智能】AI立法进行时① - 该以何种姿态面对颠覆者?
浏览次数:【23】  发布日期:2023-8-1 13:21:00    文章分类:财经资讯   
专题:人工智能
 

  编者案:

  2022年,生成式AI发展为 人工智能 发展注入一针强心剂,ChatGPT的横空出世,被视为通用 人工智能 的起点和强 人工智能 的拐点,引发新一轮 人工智能 革命。 人工智能 发展似乎找到了自己的主流叙事。

  不过,技术创新的同时也造成了监管难题,我们面对的不是近在咫尺的当下,而是想象触达不到的未来。对于推翻性的 人工智能 技术,全球正在进行治理话语的竞赛,中国将会如何通过立法来贡献出具有中国特色的AI治理路径?如何既拥抱技术发展,又能有效规制风险?之前南财合规科技研究院推出AI契约论系列报道和《生成式 人工智能 发展与监管白皮书》,在此基础上,将继续推出AI立法进行时系列,以期为中国AI治理提供有益思路。

  在过去的几个月,ChatGPT之父、OpenAI开创人Sam Altman几乎一刻也没歇着,穿梭在每一个能为ChatGPT的去与从谋取发展空间的“辩论场”。

  在美国国会山,他就AI技术的潜在危险作证,并敦促立法者对制造先进AI的组织实施许可要求和其它法规;在欧洲大陆,他造访了英国、西班牙、波兰、法国等政府首脑;在多场国际学术会议上,他强调安全与对齐。

  所有的活动中,有一个核心的主题:呼吁政府监管,帮助行业有序发展。

  这似乎有点推翻人们的认知:这场“AIGC革命风暴”的最大受益者—AI行业全球的领头羊居 然要主动寻求管制。

  其实,全球正在进入“AIGC革命风暴”掀起的新一轮AI监管潮。

  欧盟早先一步,《 人工智能 法案》进入最终谈判阶段。

  系列迹象表面,美国政府最近也在紧锣密鼓推进监管工作:30天前,美国总统拜登就会见了AI专家和科研人员,讨论如何管理AI在就业、儿童权益、偏见与偏见和信息方面造成的机会和风险。美国政府正在考虑为这项快速发展的技术制定规定等法律约束。

  就在最近,美国政府于白宫召集美国七家AI头部公司并获得了七家 人工智能 头部企业的自愿性承诺,确保 人工智能 技术的安全性、有保障性和可信任性。

  在亚太地区,日本决定设立一个名为“ 人工智能 战略会议”的新机构,东盟正在规画 人工智能 治理和伦理指南,预计年底成型。

  中国则在7月份发布《生成式 人工智能 服务管理暂行办法》,率先交出一份答卷。同时, 人工智能 法草案将预备提请全国人大常委会审议。中国 人工智能 法草案也将提请全国人大常委会审议。

  Sam Altman的呼吁其实不是事出有因。年初以来的“AIGC革命风暴”历经狂热追逐后,业内也回归到理性共识:若缺乏适当监管,任由AI飙速发展,会造成诸多隐患。

  近忧与远虑

  Sam Altman要求监管的动作可以解读为一种策略,通过游说和预先的危险提示来争取有益于自身发展空间。但在更深层的理论中,AI造成的危险、面临的安全与对齐问题,远非一家公司能解决的问题。

  假如不能解决安全的问题,一切发展也就无从谈起。法律和伦理隐患愈发牵动行业发展。

  五月底,Open AI三位开创人发布了文章《对超级智能的监察管理》(《Governance of super intelligence》),其中提及,super intelligence的发生无法阻止,所以需要进行更大范围内的监察管理。

  “我们认为阻止超级智能的发生是艰难的,因为利益如此巨大,建造它的成本每年都在下降,建造它的参与者数量正在迅速增加,而且它本质是我们所走的技术道路一部分。阻止它需要全球监管制度,并且即便这样也不能确保有效。因此我们务必确保它向正确的方向发展。”

  全球范围内热火朝天的“大模型建设”也日渐袒露毛病:AI滥造虚假新闻、AI诈骗、个人信息泄露、 知识产权 纠纷等这些严肃问题不得不被正视。近期,OpenAI就因疑似“窃取用户信息”遭到集体诉讼。

  随同大模型建立的大规模下游应用生态,其风险非常棘手。AI合规业务无疑是今年法律界的“香饽饽”,合规圈人士不敢有一丝懈怠,需要时刻关注每一个争议才能让解题思路跟上AI的“狂飙”速度。观韬中茂律所合伙人王渝伟就是其中之一。他分析道,商业化应用会放大大模型风险,并且风险各不相同。好比个人信息,假如是在ToB的咨询业务场景下,可能不会具体到个人,甚至整个业务场景都较少涉及个人信息,当然的个人信息隐私风险会比较小;但假如是私人助理的应用,数据直接对应到个人的存在性增大,在数据传输进程中个人信息袒露的存在性更高。

  在云从科技咨询规划总监张俊看来,大模型使用的输入数据合规也是关键问题。大模型是数据在大算力加持下的“暴力美学”,大模型语料库使用的大量数据存在高度的数据合规风险。数据的权属权益问题在全世界一直是个难解之题,当前国内 数据要素 的立法问题还没解决,又出现了基于 人工智能 生成式内容的数据合规风险。

  “所以现在国内大模型更多是私域部署运行,公域部署存在着数据使用安全合规的法律挑战。”张俊指出。

  360开创人周鸿祎也提及,公有大模型存在 数据安全 隐患,组织内部知识库不适合训练到公有大模型中;公有大模型易造成企业内部数据泄露。

  除却这些“近忧”,本轮AI发展不可控的危险亦是无法忽略的“远虑”。

  非营利组织CAIS(Center for AI Safety)指出,高度胜任的系统可以赋予一小群人巨大的权力,从而造成压迫性全面的出现;随着大模型变得更有能力,它们会表现出意没想到的、性质不一样的表现。AI可能自发地突然掌握一些能力,或出现新的系统目标,这可能增加人们失去对顶级 人工智能 系统控制的危险。

  美国加州大学伯克利分校计算机科学教授、人类兼容 人工智能 中心 (Center for Human-Compatible AI)主任斯图尔特·罗素(Stuart Russell)指出, 人工智能 系统可能会通过对话来改变数亿人的说法和情绪。OpenAI等科技公司应该停止在不告知的情景下向数亿人发布新的 人工智能 系统,这些系统可能会通过对话来操作和影响人类的思想和行为,造成一些灾难性的后果。

  监管如何破除方法论窘境

  “不是我们无法适应,而是这一切可能发生的速度。”这也是Sam Altman所担忧的。

  超速发展之下,如何监管AI或许面临方法论的困境。

  早在1980年,英国社会学家科林格里奇(David Collingridge)就指出,预测科技和控制科技基本上是相互违背的两种行动。当某个科技还没完全成熟、广泛应用时,我们颇有机会和能力去影响和介入它的发展,但问题在于,此时我们其实不晓得它会造成什么社会后果;相反,当我们可以清楚猜到或见到某个科技造成的社会后果时,这个科技往往已经技术成熟且被大量使用,以至于我们很难再去做出任何大幅度的更改或将其取消。

  中国信息通信研究院互联网研究中心副主任何波指出,技术的演进在某种水平上具有不确定性,与传统网络空间相比, 人工智能 等新兴领域更具有比较大的不可控和不可预知性。因此,不能完全照搬传统互联网发展所遵循的“先发展再治理”的宗旨,需要提前划定安全底线和发展红线,避免新技术发展陷入“科林格里奇困境”(Collingridge's Dilemma),一个技术的社会后果往往不能在技术生命的早期被预料到,而当不利后果发生的时候,技术却往往已经成为整个经济和社会结构的一部分,再对它进行控制就比较困难。 人工智能 领域的发展具有很强的技术性、动态的变化性等特征,相关监管制度的合理性和可行性也需要进一步研究完善,实现良法善治。

  可以看到,近期立法与监管政策正在密集推进。

  在中国,国家网信办作为互联网信息服务均等主要监管机关,近年来密集出台了 人工智能 领域的有关规定。好比《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》等。

  针对本轮生成式AI的热潮,网信办也迅速做出反应。今年4月,国家网信办《生成式 人工智能 服务管理办法(征求建议稿)》发布并向社会公开征求建议,以增进生成式 人工智能 技术健康发展和规范应用。7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、 广电 总局正式发布《生成式 人工智能 服务管理暂行办法》,给出了“生成式AI时代”下中国关于AI治理的独立思考。

  6月初,国务院公布的2023年度立法工作计划通知显示, 人工智能 法草案预备提请全国人大常委会审议。

  早在2021年,亚欧大陆另一端的欧盟委员会就发布了欧洲议会和理事会《关于制定 人工智能 统一规则》的立法提案(即《 人工智能 法案》),意在建立关于 人工智能 技术的统一规则,以增进形成合法、安全、可信的 人工智能 市场。

  针对生成式AI,今年,《 人工智能 法案》又进行了多轮谈判,将根据《 人工智能 法案》授权草案,针对ChatGPT等生成式 人工智能 设立专门监管制度。

  在OpenAI、微软、谷歌等科技公司总部所在地的美国,也一改此前重发展的思路,强调监管的重要性。

  今年4月,美国国家标准与技术研究院宣布制定负责任地使用 人工智能 的要领框架,试图使政府的AI监管工作方面饰演突出角色。5月,美国白宫总统科技顾问委员会(PCAST)成立了一个生成式 人工智能 工作组,以帮助评估关键机遇和风险,并就如何最好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。

  寻找新型 人工智能 监管框架

  尽管此前不乏 人工智能 相关的法律与监管政策,但现在,各国、地区面对的 人工智能 不在停留在代码、停留在局域应用层面,而是技术突破后能力不断进阶、商业应用极有可能大规模落地的新局面。

  一方面,没有任何一方愿意被本轮 人工智能 发展“革命”,另一方面,负责任的创新极其重要。随着生成式 人工智能 研究和使用规模逐渐增长,通用 人工智能 的脚步迫近,建立新型的 人工智能 监管框架非常必要。

   人工智能 的复杂性也考验监管智慧。正如前文所述,首先,生成式AI的危险有未知性,大模型表现的“涌现性”特征及“幻觉”问题仍待解决。大规模商用后伴生风险该如何规避?

  其次,现有法律框架内未能解决的数据所有权等诸多问题,随着大模型的应用而愈发棘手。

  最后,立法的目光不得不看向更遥远的通用 人工智能 。安全与对齐的问题更加重要。

  GPT-4 花了八个月的时间完成对齐方面的工作,但相关的研究还在升级。如何让日益强大的AI系统,目标行为与人类的价值观与利益相对齐,其实不是一家公司或一个行业能做到。它涉及到对价值观的领会与判断,涉及到对技术的监察管理,涉及到被影响的每一个人。

  毫无疑问,本轮 人工智能 浪潮正在改写游戏规则。当 人工智能 的发展和更广泛的应用已经势不可挡,在各方纷纷想要抓住机遇的同时,伴生的危险也应被认真对待。立法、监管应全方位考虑 人工智能 造成的影响,寻求找到安全和发展之间的平衡点。

  在接着的系列报道中,我们还将就中国AI发展现状、算力建设情况、各国AI治理进展等展开更深入的探讨。

  

手机扫码浏览该文章
 ● 相关资讯推荐
 ● 相关资讯专题
  • 网络建设业务咨询

   TEl:13626712526