财联社5月18日讯(编辑牛占林)据媒体周五报道,在两位关键领导人离职后,OpenAI专注于研究 人工智能 (AI)生存危险的团队已经全部辞职或被其它小组吸收。
在接受采访时,OpenAI公司证实,该公司不再将所谓的“超级对齐”团队身为一个独立的实体,而是将该团队更深入地整合到其研究工作中,以帮助公司实现其安全目标。
在去年7月份,OpenAI宣布成立一个新的研究团队“超级对齐”,要用AI监督AI的形式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI全面的目标要和人类的价值观与利益相一致。公司开创人之一伊利亚·苏茨克沃被任命为团队共同责任人。
而现在AI风险团队解散是公司内部最近出现动荡的又一证据,也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的疑惑。OpenAI章程规定,务必安全地开发通用 人工智能 (AGI),即可以与人类匹敌或超越人类的技术。
上个月,超级对齐团队两名科研人员因泄露公司机密而被解雇,另一名成员也在2月离开。到了本周二,伊利亚在社交平台X上宣布,他将在近十年后离开公司,相信在首席执行官奥尔特曼等人的领导下,能够缔造出既安全又有益的通用 人工智能 。伊利亚此前与奥尔特曼就AI的发展速度发生过冲突。
随后,超级对齐团队另一位责任人Jan Leike也宣布离职。不过有知情人士声称,对Leike而言,伊利亚的退出造成分歧严重到了无法调和的境界。
Leike周五发布声明称,超级对齐团队始终在努力争取资源。“在过去的几个月里,我的团队始终在逆风航行。有时候我们在计算资源上挣扎,而且越来越难以完成这项重要的研究。”
他还表示,他的离职是因为他与OpenAI在公司的“核心优先事项”上存在一系列分歧,他认为,公司不够关注AI相关的安全措施。
OpenAI在周二宣布,公司联合开创人JohnSchulman将成为未来对齐工作的科学责任人。另外,OpenAI在一篇博客文章中表示,已任命研究总监Jakub Pachocki接替伊利亚担任首席科学家。