澳大利亚将考虑对 人工智能 的发展引入强制性“护栏”,试图在这项新技术造成的生产力效益与流传虚假信息等潜在风险之间做些平衡。
“对AI发展的资源限制是不够的”
当地时间周三,澳大利亚工业和科学部部长艾德·胡锡克(Ed Husic)宣布,计划成立一个专家小组,以权衡限制 人工智能 的使用和研究的决策。
该部门正在考虑的其它限制规定包含:设立低风险应用程序的自愿安全标准,要求 人工智能 建立内容加上水印等。
胡锡克在新闻发布会上谈到 人工智能 技术时表示:“我们的确需要有那些强制性的护栏,告诉你这些是你不能越过的红线。”
他还提到,政府“清楚地听到,澳大利亚人希望有更强的护栏来管理高风险的 人工智能 。”
澳大利亚政府于2023年6月开始对 人工智能 的“安全和负责任”使用进行审查,并在收到500多份相关方的意见书后决定延长回应期。
澳政府表示,在政府咨询期间标记的AI风险中,存在诸如不准确、带有偏见和缺乏透明度等诸多问题。从审查中可以清楚地看出,对 人工智能 发展自愿做出限制是不够的。胡锡克表示,将“立即”开始制定 人工智能 法规。
更多监管考验即将到来
在全球范围内,AI技术既被视为提高生产力的驱动因素,也被各国政府视为潜在风险因素,包含可能助长虚假信息的流传。
在澳大利亚,预计到2030年,采用 人工智能 和自动化每年将为经济产出增加多达6000亿澳元(约合3970亿美元)。
澳大利亚政府表示,他们的目标是限制 人工智能 高风险应用的危险,同时允许低风险的 人工智能 应用“蓬勃发展”。
虽然政府没有详细说明高风险可能包含什么,但胡锡克在接受采访时将其定义为“任何影响人们生命安全,或某些人未来工作或法律前景的因素”。
在国际 人工智能 安全峰会之后,澳大利亚是去年11月在英国签署布莱切利宣言的27个国家之一,该宣言致力于在 人工智能 测试方面进行全球合作。
这是世界各国和地区(尤其是欧盟、美国、中国和英国等)为迅速制定 人工智能 法规而采取的日益增长的行动的一部分。但这些措施只是开始,从今年开始, 人工智能 技术将在各国面临更多的监察管理考验。