4日,7名OpenAI前员工、4名现任匿名员工和谷歌DeepMind前任与现任员工发布公开信,警告商业公司竞相开发 人工智能 产品存在风险,该行业缺乏充分的监察管理,并可能对吹哨人打击报复。
公开信刊载在righttowarn.ai网站上,网站域名和信件标题都在捍卫这些顶尖AI公司员工《对先进 人工智能 发出警告的权利》,呼吁对AI行业进行全面改革,包含提高透明度和保护吹哨人。
信件称, 人工智能 技术有潜力为人类造成空前绝后的利益,但也存在严重风险,包含进一步加剧现有的不平等、操作和误导信息,和失去对自主 人工智能 全面的控制,可能造成人类灭绝。
图片来源:righttowarn.ai网站
信件随即列出OpenAI、谷歌 人工智能 实验室Google DeepMind、谷歌和亚马逊支持的AI草创公司Anthropic等官方网站,和英美等国政府网站和一些 人工智能 专家都“已承认存在这些风险”。
公开信称,原本希望在科学界、政策制定者和公众的充分指导下,上述先进AI系统造成的危险能够得到充分缓解,但 人工智能 公司有强烈的经济动机来逃避有效监督:
“ 人工智能 公司掌握着大量非公开信息,包含其全面的能力和局限性、保障措施的充分性,和不同类型伤害的危险水平。但它们目前只有很弱的义务向政府分享部分信息,对公民社会则没有任何分享义务。我们认为,不能指望它们(注:商业公司)自愿分享这些信息。”
信件还称,AI公司们与员工签署了广泛的保密协议,与离职员工签署了不能借由披露AI风险而“对公司进行贬低批判”的严苛条款,整个行业发生过对吹哨人各种形式的报复案件。
因此,公开信要求OpenAI及所有 人工智能 公司都不得签订或执行避免批判AI风险的保密协议,不能通过妨碍揭露AI风险吹哨人的既得经济利益来打击报复,而且要为现任和前任员工提供“可验证的匿名流程”,以便向公司董事会、监管机构和具有相关专业知识的独立组织提出与AI风险相关的担忧,前提是吹哨人需要对公司的商业机密和其它 知识产权 利益进行适当保护。
公开信的签署者之一、今年4月从OpenAI 人工智能 治理岗位离职的Daniel Kokotajlo指出,辞职是因为“对OpenAI能否负责任地行事失去了信心”。他称OpenAI的 人工智能 系统已经接近人类智能水平,通用 人工智能 AGI有50%的存在性在2027年就会问世,而不是此前预测的2050年:
“世界还没有准备好(迎接如此顶级的AI智能),我们也木有准备好,我担忧(这些商业公司)将不管不顾地固执己见,并为自己的表现寻找托词。顶尖的 人工智能 毁灭人类或对人类造成灾难性伤害的存在性高达70%。”
另据参考消息,沙特阿拉伯《阿拉伯新闻》日报网站5月26日刊登题为《全球 人工智能 讨论务必在关注机遇的同时关注风险》的文章,英国伦敦政治经济学院国际事务、外交和重大战略研究中心研究员安德鲁·哈蒙德表示,目前, 人工智能 造成的巨大经济机遇令市场兴奋不已。许多投资者认为,这项新兴技术将在未来几年大幅提高生产率并重塑全球经济。
然而, 人工智能 的危险也务必成为全球讨论的一个关键点。著名计算机科学家杰弗里·欣顿断言,这项技术对人类组成的要挟可能比气候变化“更为紧迫”。
埃隆·马斯克等关键商业领袖也发出警告,呼吁立即暂停某些全面的开发。这位 特斯拉 开创人我们时常警告在他看来 人工智能 系统存在的危险,甚至签署了一封公开信,警告“失控”的发展可能“对社会和人类构成巨大风险”。
这一话题是全球 人工智能 安全峰会的一个关键主题,该峰会由韩国总统尹锡悦主持,而去年英国主持召开了一场类似会议。这两场会议都汇集了世界各国领导人、科技企业责任人和学者,讨论如何以最佳方式监管这种快速发展的技术,和通过采用这种技术增进更大水平的数字包容和可持续增长。
虽然韩国、英国和法国(法国将在今年或明年举办第叁次全球 人工智能 安全峰会)正寻求在这一议程上引领国际社会,但它们其实不孤独。中美官员最近在日内瓦同样就 人工智能 安全问题举行了会议。
在日内瓦会议上,中美两国顶级官员讨论了如何最大限度降低 人工智能 的危险,和抓住这项技术造成的机遇。会谈更多关注怎样在两国各自努力推动这一议程的环境下最大限度地管理风险。
据新华社此前消息,美国总统拜登2023年10月30日签署一项行政命令,为 人工智能 安全制定了新标准。美国媒体称,这是拜登政府对 人工智能 技术采取的第壹项具有约束力的重大行动。
白宫在一份声明中说,这项行政令“具有里程碑意义”,将保护美国公民隐私,增进公平和公民权利,维护消费者和工作者权益,增进创新和竞争等。
这一行政令要求,美国最强 人工智能 全面的研发人员需与政府分享其安全测试结果及其它关键信息;完善相关标准和测试工具,确保 人工智能 系统安全、可靠;制定严密的合成生物检查新标准,防范使用 人工智能 设计危险生物材料的危险;建立检测 人工智能 生成内容和验证官方内容的标准和最佳实践,以帮助民众防范 人工智能 驱动的欺诈;建立顶尖的 网络安全 计划,开发 人工智能 工具查找和修补关键软件漏洞;研发制定“国家安全备忘录”,指导 人工智能 和安全方面的进一步行动。
据介绍,美国国家标准与技术研究所将制定严格的 人工智能 “红队”标准。美国国土安全部将把这些标准应用于核心基础设施项目,并成立 人工智能 安全委员会。美国能源部和国土安全部将具体应对 人工智能 系统对关键基础设施的要挟,及其造成的化学、生物、放射性材料、核及 网络安全 风险。
人工智能 “红队”测试是 网络安全 中的一项关键实践,由专家团队模拟真实世界的对手及其策略,以测试和增强全面的安全性。
每日经济新闻综合新华社、参考消息、公开资料