安大互联
  • 1
  • 2
  • 3
  • 4
  • 5
商业热点 > 商业洞察 > AI安全治理刻不容缓

【人工智能】AI安全治理刻不容缓

查看信息来源】   发布日期:5-25 3:05:11    文章分类:商业洞察   
专题:人工智能】 【OpenAI】 【刻不容缓

  5月中旬,OpenAI联合开创人、首席科学家伊利亚·苏茨克弗(Ilya Sutskever)离职。这其实不令业界感到意外,早在2023年11月OpenAI短暂撤销总裁山姆·奥特曼的“宫斗”风波中,外界已预料到可能会有这一天。在社交媒体上,苏茨克弗的离职维持了成年人的体面,他发布一张与OpenAI高管团队的亲密合影,而总裁奥特曼则对他表示了感谢与赞扬。

  与苏茨克弗前后脚离开的还有OpenAI的多名高管,其中“超级对齐”(Superalignment)团队的主管Jan Leike在离职的同时还发出了“小作文”,指责OpenAI领导层已高度忽略了大模型的安全准则,高速推出“吸引眼球”的产品,将核心放在了盈利与获取计算资源上。对此,OpenAI方面回应,已提高了对AI风险的认知,未来将不断提升安全工作以应对每款新模型的利害关系。

  超级对齐团队是OpenAI于2023年7月在内部设立的,任务在于确保那些具备“超级智能”“比人类还聪明”的AI系统能够遵循人类的意图。这里需要交代下超级对齐团队设立的背景:2023年3月,OpenAI推出了多模态预训练大模型GPT-4,之后不久, 特斯拉 总裁埃隆·马斯克联合知名企业家、学者联合签署《暂停巨型AI实验》公开信,“呼吁所有AI实验室立即暂停对照GPT-4更强大的AI全面的练习至少6个月”。根据Jan Leike的爆料,OpenAI当时承诺在未来4年内投入20%的计算能力来保证AI模型的安全性,但实际执行上打了很大折扣,随着核心人物的离职,超级对齐团队基本等于解散。从去年3月到今年5月,OpenAI接连进行了GPT大模型的数次更新迭代,算力成本持续下降。

  回看过去一年,超级对齐团队似乎从一开始就像是“权宜之计”,OpenAI在不同环境多个场合屡次强调对模型安全的注意,多举措“抚慰”监管职能部门、业界及公众对于AI高速发展的安全风险担忧。其实,OpenAI的超级对齐团队从设立到“解散”的背后,在一定水平上也是市场地位变化的一个反映。从ChatGPT引爆大模型热潮,到之后GPT-4、GPT-Turbo,再到今年2月的Sora和5月最新推出的GPT-4o,OpenAI作为AI大模型的开创者,在一按时期内“桂林一枝”,公众对于AI安全风险的担忧投射的是对于OpenAI的一种疑问与拷问。而随着Meta、谷歌、亚马逊等科技巨头,和Anthropic、Mistral AI和我国的大模型公司发力追赶,OpenAI饰演的角色从“桂林一枝”转变为“主要竞争者之一”,OpenAI的大模型进入了相对平稳迭代的阶段,尽管它仍惊艳业界,但对AI大模型狂飙突进需要把控好“方向盘”的任务绝不只是OpenAI一家企业的责任。更为关键的是,当市场竞争日益白热化、算力资源日益紧俏的情景下,OpenAI将更多的资源倾斜至产品迭代升级,而非“超级对齐”任务上,也就不难明白了。

  AI大模型的狂飙突进故事仍在续写,市场竞争愈演愈烈,科技巨头与AI新秀都在铆足全力,共同推动大模型的使用门槛不断下降,在中国市场还上演了一场热闹的价钱战。在这种情景下,AI安全治理还重要么?人类发展AI还需要“超级对齐”么?

  答案显然是肯定的。当前,全球 人工智能 的国际竞争已经从技术领域延伸至规则制定方面,这既是国际社会对 人工智能 安全发展的共同利益,背后也是大国在AI治理话语权方面的竞争。于是,我们看到,欧盟理事会在5月21日正式批准了《 人工智能 法案》(AI Act),抢占立法高地,在其《通用数据保护条例》(GDPR)成功的条件上延续“布鲁塞尔效应”;中国在5月8日公布的《全国人大常委会2024年度立法工作计划》中,将网络治理和 人工智能 健康发展并入“预备审议项目”中;美国同样逐渐出台一系列与 人工智能 相关的法律法规;中国与法国达成《关于 人工智能 和全球治理的联合声明》、与俄罗斯全面深化在包含 人工智能 在内的多领域合作……因而可知, 人工智能 的安全发展与治理已引起各个国家和地区的注意,国际的发展合作与治理协作也日益频繁。

  而对于OpenAI这些AI大模型的主导企业而言,也越来越多地参与到国际的框架合作与联合承诺中。从2023年11月首届 人工智能 安全峰会上,28国和欧盟联合签署了《布莱切利宣言》,坚持“以人为本,值得信赖和负责任”的 人工智能 发展准则,到今年5月21日在韩国首尔举行的第贰届 人工智能 安全峰会上,OpenAI、Anthropic、亚马逊、谷歌、微软、Meta、Mistral AI、xAI、智谱AI等来自北美、亚洲、欧洲和中东地区的15家主流 人工智能 公司就AI开发安全承诺达成一致,签署了前沿 人工智能 安全承诺,主要包含:确保前沿 人工智能 安全的负责任治理结构和透明度;基于 人工智能 安全框架,负责任地说明将如何衡量前沿 人工智能 模型的危险;建立前沿 人工智能 安全模型风险缓解机制的明确流程。正如智谱AI首席执行官张鹏所说:“随同着先进技术而来的是要确保AI安全的重要责任。”

  综合以上,尽管OpenAI的超级对齐团队在公司内部“降级”甚至解散,但这其实不代表AI发展不再需要与人类共同利益的超级对齐,相反在国际层面和国家监管治理方面,作为市场主导者和参与者的大模型公司都需要将安全治理贯穿到业务发展链条中,接受更为严格的监察管理与制约。AI大模型的时代方兴未已,在国际社会的共同努力下为 人工智能 的发展把好方向盘,显然是未来与技术狂奔向前相伴的另外一个主旋律。

手机扫码浏览该文章
 ● 相关商业动态
 ● 相关商业热点
亚马逊】  【TikTok】  【陈志杰】  【机器人】  【OpenAI】  【日产汽车】  【PCE】  【马斯克】  【Meta】  【人工智能】  【司法部】  【iPad】  【创始人】  【Balaji】  【旧金山】  【ChatGPT】  【合理使用】  【营利性】  【吹哨人】  【脑机接口】  【基金会】  【SEC】  【Neuralink】 
  • 客服与业务咨询

   【网络建设服务报价】