安大互联
财经热点 > 财经资讯 > 21深度 - Open AI陷安全风波,AI治理向何处去
【人工智能】21深度 - Open AI陷安全风波,AI治理向何处去
浏览次数:【470】  发布日期:2024-6-5 19:17:08    文章分类:财经资讯   
专题:人工智能】 【网络安全】 【ChatGPT】 【OpenAI】 【Open
 

  放弃四年后,OpenAI决定重拾“ 机器人 梦”。5月31日,有媒体援引知情人士的消息,OpenAI正在招聘研究工程师,以重启四年前解散的 机器人 团队。

  也在上周,OpenAI发布GPT-4o不久后,官宣已经开始训练下一代大模型,取代GPT-4。

  OpenAI在加速狂飙的同时,最近却时常陷入安全、伦理问题的争端。

  5月13日,OpenAI推出新的大模型GPT-4o,本以为会是电影“Her”照进现实,结果却因 机器人 “撞声”好莱坞明星斯嘉丽·约翰逊而遭控告。

  几天后,OpenAI联合开创人、首席科学家伊利亚·苏茨克维尔(Ilya Sutskever),和“超级对齐”团队责任人简·雷克(Jan Leike)接连出走,专门负责用技术规范AI的“超级对齐”团队也随之解散。一时间,有关OpenAI“商业化压倒理想主义”的声音甚嚣尘上。

  屋漏偏逢连夜雨,OpenAI还频繁被欧盟、美国的监察管理职能部门“盯上”,在数据准确性、用户隐私、内容垄断等诸多问题上被调查。

  屡屡深陷安全性争议,OpenAI是咋了?

  安全性危机

  去年年底,OpenAI一出“逼宫”戏码,引发全球关注,但也撕开内部“路线之争”的一角——OpenAI建立时定位非营利组织,致力于“确保 人工智能 造福全人类”,但随着ChatGPT一炮而红, 阿尔特 曼为代表的“有效加速主义”和伊利亚尊敬的“超级对齐”之间分歧愈来愈大。

  “有效加速主义”希望加速AI的突破和普及,先扩大市场再根据数据和反馈做调整,“对齐”(Alignment)要求AI全面的目标要和人类价值观与利益相一致,用更谨慎的步伐发展AI。伊利亚作为OpenAI的灵魂人物,也是“深度学习教父”辛顿的大弟子,深信在缔造下一代大模型之前,应该先理清楚如何阻止超级 人工智能 变得不受控制。很明显,伊利亚和追求缔造AI宏图的 阿尔特 曼之间,有着难以调和的分歧。

  有消息称, 阿尔特 曼在商业化的道路上走得过快,以至于“削弱了监督公司AI开发的能力”,是他被董事会“逼宫”出局的重要导火索。但后来,在员工和投资人联合施压下, 阿尔特 曼“回宫”重执大权,到近期代表“对齐派”的伊利亚、简·雷克离职出走,似乎意味OpenAI的路线之争已画上一个阶段性的句号。

  只是,两位高管离职后,OpenAI里专门负责用AI治理AI、解决超智能对齐问题的“超级对齐”团队也随之解散。简·雷克官宣离职后,还发长文痛批OpenAI:“在过去几年,安全文化和流程都让位于绣花枕头的产品…有时团队难以获得充分的计算资源,严重影响研究的进度和质量。”

  疑问的声音很快蔓延开来——在OpenAI的效率和安全之争中,是不是前者已经压倒后者,马斯克评价道,“这显示安全其实不是OpenAI的首要任务。”

  5月28日,OpenAI称董事会成立了一个负责把控AI开发方向的“安全委员会”,负责监督与公司项目和运营相关的“关键”安全和安保决策。

  但新建立的安全委员会能否起到原本“超级对齐”团队的功能,至少从目前来看, 阿尔特 曼的补救举措还是未能打消外界的疑虑。

  同济大学法学院助理教授、上海 人工智能 社会治理协同创新中心研究员朱悦向21世纪经济报道记者分析,目前OpenAI还没有公布太多关于委员会具体如何运作的信息,我们只能推测判断,之前的超级对齐团队有很好的算力,有伊利亚、简·雷克这样的顶级科学家还有一批非常精英的工程师,他们和大模型的练习团队有非常紧密的合作,一起提出很多设想,“对齐”的伦理价值是直接嵌入到技术或说在大模型里面的。但近期建立的安全委员会,更像外部审核机构,针对安全问题做评估、发布报告,治理的价值就不一定像以前那样深入内化到技术里。

  监管的压力

  断断续续持续半年多的“内斗”袒露OpenAI价值对齐的倒退,外部监管也让这家 人工智能 前沿公司时常置身合规风波。

  前阵子,欧盟对微软投资OpenAI的反垄断调查刚告一段落。5月25日,欧盟数据保护委员会(EDPB)的一个特别工作组又发布报告指出,尽管 OpenAI 在减少 ChatGPT 输出信息的错误率上做出了一定努力,但它硬是不足以确保“完全符合”欧盟的数据规则。

  据了解,“数据准确性”是欧盟《通用数据保护条例》(GDPR)的指导原则之一,但报告指出,由于全面的机率性质,当前的练习方法造成模型可能发生偏差或编造的输出结果。同时,ChatGPT输出的结果很可能最终被用户视作“事实准确”。该报告称,目前一些成员国的调查仍在进行中,但上述结论已是各国的“共识点”。

  根据条例,一旦确认违反GDPR,企业最高将被处以最高2000万欧元或企业全球年收入4%的罚款。去年,意大利还因为涉嫌违反隐私规则的问题对Open AI开出临时禁令,成为全球第壹个封禁ChatGPT的国家。

  中国现代国际关系研究院科技与 网络安全 研究所 人工智能 项目责任人谭笑间告诉21世纪经济报道记者,OpenAI去年被意大利下架,就是因为ChatGPT被发现大量收集和保存用户隐私,其实,欧盟实施《通用数据保护条例》已经有多年,素来有着重视用户隐私保护的传统,近期的调查也有一定敲打美国科技公司的政治考虑,但预计不会对OpenAI的运营造成根本性影响。

  朱悦向记者表示,调查报告指出的准确性、透明度问题,基本上OpenAI把信息告知和提示做到完善,基本就能平息争议,说白了ChatGPT需要告诉用户生成的信息可能是不准确的。但对OpenAI而言,欧盟政策制定者正在讨论的“合法性基础”(legal basis)问题才是尤为致命的,因为公司一旦需要用户同意作为合法性基础,才能收集和处理个人数据,那OpenAI训练大模型时就会受到极大限制,因为网站要收集数据变难了,就会面临训练数据不够的困扰。

  接着,OpenAI等科技公司还将面对更严格的监察管理压力。

  5月21日,欧盟理事会正式批准欧盟《 人工智能 法案》,标志着全球首部用于 人工智能 领域监管的法案即将落地生效。该法案将在欧盟官方公报公布20天后生效,2年后全面实施。

  朱悦看来,欧盟《 人工智能 法案》的监察管理效应将会超出地区层面,对全球的 人工智能 治理发生影响。首先,欧盟立法有着老话讲的“布鲁塞尔效应”,除了 人工智能 领域,欧盟制定的很多规则会扩散到全球;二则,朱悦近几个月来也在从事《 人工智能 法案》的翻译工作,法案全文400多页、十多万字已是大部头,但法案背后实际上就是上千份立法材料,这相当于为后面国家制定法规提供了一整个立法资源库,不管这些国家是会借鉴还是抨击,但终究会不可避免使用欧盟《 人工智能 法案》的很多语言和工具。

  同时,朱悦进一步指出,欧盟《 人工智能 法案》中的域外适用条款、等价性规定,也是把地区法规推向全球的表现。域外适用就是部分条款适用到欧盟之外的 人工智能 系统,等价性规定也即要把欧盟的规则投射到全世界,好比在版权领域,欧盟规定只要通用 人工智能 大模型是面对欧洲市场的,那么不管在哪个国家训练,都要遵守很多于欧盟要求的版权保护规定。

  “欧盟在制定《 人工智能 法案》时,和全球多个科技巨头都有接触,所以也会跟进制定很多AI的技术标准、行为守则,”朱悦说道,在未来几年,欧盟对AI的治理理念和监管规则都会给全球造成影响。

  如何抵达安全AGI

  “对 人工智能 的监察管理是必要的。” 阿尔特 曼在去年5月的美国 人工智能 听证会上向参议员承认。

  当生成式大模型掀起AI发展的又一波高潮, 人工智能 显露出更强大的能力,有关怎样规范AI、让其安全可控发展,成为愈加重要和迫切的公共议题。

  清华大学苏世民书院院长、 人工智能 国际治理研究院院长薛澜在4月的一次演讲中提及,AI 的潜在风险体现在多个层面,在个体层面,AI可能引发算法歧视、 知识产权 争议、信息错误等诸多问题,这与技术本身相关。应用和开发进程中也有问题,包含数据隐私保护、防范伪造等。同时社会层面还有一些更深远的大难题,如劳动力结构调整、产业结构调整等影响。

  “不能否认的是,普通用户在掌握AI技术的科技公司面前是弱势的,某种水平上用户没有针对自己引发的数据的完全掌控权,也很难对科技巨头发起追诉,”谭笑间向记者表示,“因此,政府有义务在推动 人工智能 发展的同时,让普通个体的权利得到一定保障,这也是技术治理以人为核心的意义。”

  当前,AI治理已经进入很多国家政策制定者的视线。欧盟推出《 人工智能 法案》前,已经落地实施《通用数据保护条例》《数字市场法案》《数字服务法案》。美国拥有全球最多的大模型明星企业,拜登已于去年10月发布行政命令,要求联邦机构起草AI技术使用标准。这时,我国也正在积极推进《 人工智能 法草案》的立法工作。

  “不同地区在AI治理上会有所不同,但整体还是发展导向,即便是AI立法走在前面、以强监管著称的欧盟,实际上也给 人工智能 的研发、开源留了很多豁免,”朱悦对记者说,总体上欧盟偏向合作性的监察管理,要求企业和政府密切沟通、谈判出行为守则,亚洲国家基本还在立法工作规划阶段,美国的情景稍显复杂,一方面,科罗拉多州等美国地方在推动AI的监察管理立法,以往的监察管理框架也在施展作用,好比联邦贸易委员会(FTC)有很灵活的执法权,和美国是普通法系国家,大量判决先例可以辐射到AI领域。另一方面,美国涌现出大批 人工智能 前沿公司,他们本身在AI治理和技术安全上就达到了很高水平,好比OpenAI核心团队离职后建立的AI 独角兽 Anthropic,一开始就是发展和治理同步在做,所以也能看到科技公司在美国AI治理中饰演重要角色。

  不过,从全球范围看,针对AI的监察管理也有另外一种声音——在AI离人类智力水平还很遥远的时候谈论AI风险,只会造成过度监管,遏制创新。坚定这一观点的代表是Meta首席AI科学家杨立昆、谷歌联合开创人拉里·佩奇,好比杨立昆屡次表示“欧盟和其它国家对AI的规范不是一个好主意”。

  而站在对峙面的则是马斯克、“AI教父”辛顿为代表的AI要挟论者,他们时常发出“AI将毁灭人类文明”的警惕声音,去年还有图灵奖得主、上千名科技人员联名发公开信,呼吁暂停训练比GPT-4更强大的AI系统。

  对AI潜在风险的巨大争议、业界对过度监管的排斥,让AI治理的推进异常曲折。

  “两个派别的争议点主要在现今AI能力界限的分歧,要挟论相信规模法则,认为我们已经接近AGI(通用 人工智能 )了,而反要挟论会对AI现阶段的能力存疑,所以讨论AI是不是在迫近人类智力界限、造成极端风险时,我们可以继续关注GPT等大模型的迭代情况。”朱悦谈到,如果要寻找更落地的AI治理路径,有几类模式可以参考,一种是结构逻辑,也即把AI系统拆解成不同模块,好比数据抓取、模型训练等等,相应模块再制定或遵循不同法律规则去管控风险,另一种则是场景逻辑,关注 人工智能 在基础设施、金融、交通、医疗、教育等不同场景的应用,再相应理顺不同行业的分业监管。

  今年5月,中美举行了 人工智能 政府间对话第壹次会议。谭笑间看来,中美作为全球 人工智能 领域实力最为雄厚的两方,达成合作框架极为重要。目前,双方更有可能在一些原则性问题上达成共识,好比管控 人工智能 应用于核武器、外太空,限制缔造应用于战场的 人工智能 自主武器,...。"有关AI监管,总而言之还是要在治理和发展之间找到一个平衡,不是为治理而治理,"谭笑间表示。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-9-22【英特尔】新鲜早科技 - 英特尔中国对高通洽购传言不予置评;TikTok改组领导层;OpenAI扩建旧金山园区
2024-9-20【网络安全】招联 - 坚持-为民办实事- 以科技之盾护航金融网络安全
2024-9-20【网络安全】券商完善网络安全事件应对机制 - 加强投资者保护
2024-9-20【通信设备】中东火药桶临近引爆点 OpenAI新一轮融资已接近完成 - 环球市场
2024-9-18【网络安全】创新科技助力网络安全
2024-9-12【网络安全】增强新就业群体防骗意识 - 量子之歌举办进社区公益讲座
2024-9-13【OpenAI】AI新时代揭幕!会-思考解题逻辑-的OpenAI推理大模型登场
2024-9-12【网络安全】网络安全周多领域-黑科技-涌现 细分赛道成网络安全企业-必争之地-
2024-9-11【网络安全】如何防电诈?专家 - 可通过技术手段-防患于未然-
2024-9-10【网络安全】网络安全产业市场前景广阔 多家企业加速提升技术-含金量-
 ● 相关资讯专题
英特尔】  【TikTok】  【旧金山】  【OpenAI】  【网络安全】  【信息安全】  【ISO】  【为民办实事】  【网络安全事件】  【通信设备】  【黎巴嫩】  【创新科技】  【数字经济】  【中央网信办】  【量子之歌】  【GPT】  【大模型】  【思考解题逻辑】  【细分赛道】  【黑科技】  【防患于未然】  【网络安全产业】  【含金量】 
  • 网络建设业务咨询

   TEl:13626712526