商业洞察
【科技巨头】科技巨头承诺安全开发AI模型 - 极端风险下会-自拔网线-
【查看信息来源】 5-21 23:33:57
当地时间周二(5月21日),微软、亚马逊、OpenAI等科技巨头在“ 人工智能 (AI)首尔峰会”上就AI安全达成了一项具有里程碑意义的国际协议。
此次峰会由韩国与英国共同主办,是去年11月在英国召开的全球 人工智能 安全峰会的后续会议,以“安全、创新、包容”为主题。
这项国际协议将让来自全球多国的企业做出自愿承诺,确保他们是以安全的形式开发AI前沿模型。
制作AI模型的企业需要发布安全框架,列出衡量潜在风险的形式,例如检查不良行为者滥用技术的危险。
框架将包含针对科技公司的一些被视为无法容忍的“红线”,包含但不限于自动网络攻击和生物武器的要挟。
一旦发觉了这种极端情况,假如不能确保降低风险,企业们就需要打开“紧急停止开关”(kill switch),叫停AI模型的开发进程。
英国首相苏纳克在一份声明中写道:“这还是第壹次,有如此多来自全球不同地区的领先AI公司都同意在 人工智能 安全方面做出同样的承诺。这些承诺将确保全球可靠的AI公司,让他们的AI计划提供透明度和问责制。”
去年11月,在英国AI安全峰会上,与会方签署了一份《布莱奇利宣言》(Bletchley Declaration),称各方需要共同努力,设定共同的监察管理方法。
《布莱奇利宣言》写道,AI为全球造成了巨大的机遇,它有潜力改变或增强人类福祉、和平与繁华。同时,AI还造成了重大风险,包含在日常生活领域,“所有问题都非常重要,我们确认解决它们的必要性和紧迫性。”
法国将于2025年初举办下一届AI安全峰会,企业们同意在这次会议前征询意见,并公布于众。
日内,欧盟理事会正式批准《 人工智能 法案》,这是全球首部AI领域的全面监管法规,违反法规的相关方将被追究责任。然而,英国方面还没有提出类似的AI法律。
与美国的主张类似,英国选择了一种名为“轻触式”的监察管理方式,通过行业自律和个案监管来应对新兴风险,旨在避免过度干预阻碍技术创新。
在明天的部长级会议期间,各国顶级官员将以今日的讨论内容为基础,就进一步保障AI安全性、推进可持续发展等具体合作方案展开讨论。