安大互联
财经热点 > 财经资讯 > 人工智能首尔峰会召开 - OpenAI等16家AI公司作出了什么安全承诺?
【人工智能】人工智能首尔峰会召开 - OpenAI等16家AI公司作出了什么安全承诺?
浏览次数:【842】  发布日期:2024-5-22 16:25:58    文章分类:财经资讯   
专题:人工智能】 【AI公司】 【OpenAI
 

  5月21-22日, 人工智能 首尔峰会(AI Seoul Summit)在韩国举办,这是去年11月在英国召开的全球 人工智能 安全峰会的后续会议。

  周二(21日),美国、英国、加拿大、日本、韩国等10个国家和欧盟的领导人共同签署《首尔声明》,呼吁加强国际AI治理合作和治理框架之间的互操作性,提倡以风险为基础的政策和治理框架,支持启动首个国际AI安全研究所网络,促使国家间形成对AI安全的共同理解,并在研究、标准和测试方面进行协调。

  同日,16家全球可靠的科技公司在峰会期间作出“前沿AI安全承诺”,将努力确保其最顶尖的AI模型的安全性,并实施负责任的治理,实现公开透明。

  联合国秘书长古特雷斯(Antonio Guterres)在峰会开幕式上表示,自去年英国布莱切利峰会召开以来,“我们看到了改变生活的技术进步,也看到了要挟生命的新风险”。他认为,需要就AI问题制定普适的防护安全措施,并定期开展对话。

  欧洲复兴开发银行前行长查克拉巴蒂(Suma Chakrabarti)此前接受第壹财经记者采访时表示,AI等领域的全球数字治理的关键问题是各国政府能否统一标准,以实现数字基础设施的跨国互操作性。目前来看,其中存在很大的障碍,例如不同国家和地区的公民对政府和私营部门处理数据的信任水平不同很大。

  前沿AI企业的安全承诺

  AI首尔峰会在开幕前夕发布了一份名为《关于先进 人工智能 安全性的国际科学报告(中期报告)》。报告称,尽管通用AI可以用来推进公共利益,但也有可能被用来造成危害,甚至造成系统性风险。AI的未来布满不确定性,但社会和政府的决策将明显影响其未来。

  这一环境下,政府官员和AI行业高管同意就此采取基本安全措施。参与承诺的16家公司包含美国、法国、中国、韩国和阿联酋的AI企业,好比:美国科技巨头亚马逊、微软、Meta、谷歌,AI草创公司Anthropic、OpenAI和 特斯拉 开创人马斯克建立的xAI;法国的Mistral AI;韩国的三星电子和互联网公司Naver;阿联酋的AI公司G42和技术创新研究所(TII);和我国的智谱AI等。

  这些企业或组织承诺,在开发和部署前沿AI模型和系统时将有效识别、评估和管理风险;对安全开发和部署前沿AI模型和系统负责,遵守承诺并建立内部问责和治理框架;对外部行为者保持适当的透明度,包含政府。例如,企业应设定模型或全面的严重风险阈值,并监控是否接近或超过这些阈值;如果超出阈值,务必设定应对风险的明确流程。在保持透明度方面,除非会增加风险或泄露敏感商业信息,企业应公布承诺的实施情况。

  根据英国政府的声明,这些公司同意,“如果缓解措施无法将风险控制在阈值以下,则压根不开发或部署模型或系统”。

  签署协议的AI公司之一Cohere首席执行官戈麦斯(Aiden Gomez)说,自英国峰会以来,有关 人工智能 监管的讨论已从更深远的末日场景转向更实际、更紧迫的问题,好比怎样在医疗或金融等领域使用 人工智能 ,如何杜绝错误和虚假信息和偏见,保证 数据安全 ,并确保人类操作员或决策者始终参与或监督关键过程。

  AI安全的管辖权问题

  这其实不是行业可靠的AI公司第壹次作出承诺,但从过往经验来看,在缺乏硬性立法的情景下,这些自愿承诺似乎仍有局限性。

  例如,去年11月的英国峰会上,Anthropic、OpenAI和亚马逊等科技公司同意,在其发布顶尖的AI模型之前,政府可以在安全测试中施展作用。该峰会还成立了英国 人工智能 安全研究所(UKAISI),大力推动由科学家主导的对AI能力和安全风险的定期评估。但其实,Anthropic于今年3月推出了最新一批模型,却尚未允许UKAISI对其模型进行发布前测试。该公司联合开创人克拉克(Jack Clark)称,该公司正在与UKAISI合作,研究政府如何进行部署前测试,但他认为这“很难实施”。

  专注于AI研究欧洲智库Ada Lovelace Institute研究伙伴关系部副主任斯特雷特(Andrew Strait)表示,六个多月过去了,“发布前测试”的承诺似乎未能以任何有意义的形式实现。“现在应该非常明白,我们不能依赖 人工智能 公司的善意。自愿协议不能替代提供这种访问的法律授权。”他称。

  据多位知情人士透露,AI公司对UKAISI更深入地参与测试的主要疑虑包含担忧技术机密泄露,和测试会拖延产品的推出。

  管辖权则是另外一个问题。许多经济体都在建立自己的政府机构,强化对AI安全的治理框架建设。

  除了UKAISI外,今年2月,美国启动了美国 人工智能 安全研究所(USAISI)。欧盟新设了 人工智能 办公室,增进欧盟《 人工智能 法案》的统一适用,并重点监测由通用AI模型引发的不可预见的危险。在亚洲地区,新加坡去年成立了 人工智能 验证基金会(AIVF),与IBM、微软和谷歌等公司合作开发 人工智能 测试工具,以便负责任地使用和制定国际标准。日本也在今年2月成立了 人工智能 安全研究所,研究AI安全评估方法和标准,并开展国际合作。

  4月初,美国和英国签署了一项 人工智能 协议备忘录,这是全球首个关于AI安全的双边安排,就如何测试和评估新兴AI模型的危险开展正式合作。不过,Meta公司全球事务总裁克莱格(Nick Clegg)对媒体表示:“你不能让这些AI公司在每一个不一样的司法管辖区都跳来跳去,从我们的视角来看,我们的主要关系当然是与美国 人工智能 安全研究所(的互动)。”

  随着欧洲理事会在21日正式批准了欧盟《 人工智能 法案》,AI领域的硬性立法也不再是一片空白。咨询公司罗兰贝格全球管理委员会联席总裁戴璞(Denis Depoux)对第壹财经记者称,该公司已经提醒客户对AI领域的更多监管作出准备。“(和欧洲不同)美国尽管没有相应的联邦法律,但一些州已经实施了自己的规定。这凸显了监管机构重视保护消费者隐私、防止技术滥用的 势头。”他说,这种监管转变是积极的,不仅为消费者提供保护,也通过保护数据为公司自身提供了安全,AI领域也将如此。

  意大利经济发展部前副部长杰拉奇(Michele Geraci)接受第壹财经记者采访时则提醒,进行这一领域的立法其实不简单。他称:“实现创新与监管之间的平衡是一项重大挑战,尤其是欧盟我们时常被认为容易过度监管。目前试图通过立法处理问题的要领可能不是最有效的策略。 人工智能 未来五年的影响和发展轨迹在很大水平上仍无法预测,因此很难设想其潜在应用。这种不确定性使制定法律来管理一项仍在发展的技术的任务变得更加复杂。”

手机扫码浏览该文章
 ● 相关资讯推荐
2024-7-7【人工智能】-人工智能安全作为全球公共产品-报告发布 监管治理亟待克服-共同无知-挑战
2024-7-7【大模型】无限光年漆远 - AI大模型在行业落地需要更加可信
2024-7-6【大模型】2024 WAIC - 容犀智能大模型应用升级发布 金融场景现新业态
2024-7-6【大模型】人工智能大会深观察 - 大模型应该如何卷应用?开源闭源谁更有未来?
2024-7-5【大模型】2024WAIC热议大模型与高质量数据供给 - 蚂蚁集团推出大模型密算平台
2024-7-4【大模型】中国科协创新战略研究院调研三六零 - 强调应重视大模型安全问题
2024-7-3【人工智能】OpenAI - CEO奥尔特曼称AGI会让全球GDP翻倍、理解前董事会的焦虑
2024-7-3【大模型】三六零免费发放1万张AI月卡-体验券- 周鸿祎 - 拥抱大模型要找到-明星场景-
2024-7-3【iPhone】苹果料将获得OpenAI董事会观察员职位
2024-7-2【人工智能】欧盟加大对人工智能巨头交易审查力度
 ● 相关资讯专题
人工智能】  【大模型】  【上海交通大学】  【《人工智能安全作为全球公共产品》】  【周鸿祎】  【OpenAI】  【蚂蚁集团】  【研究院】  【董事会】  【明星场景】  【iPhone】  【俄罗斯】  【苹果公司】  【安全局】  【观察员】 
  • 网络建设业务咨询

   TEl:13626712526