安大互联
财经热点 > 财经资讯 > 突发!OpenAI又迎人事动荡!安全主管辞职 -超级智能对齐团队-已被解散
【OpenAI】突发!OpenAI又迎人事动荡!安全主管辞职 -超级智能对齐团队-已被解散
浏览次数:【840】  发布日期:2024-5-18 9:24:49    文章分类:财经资讯   
专题:OpenAI】 【JanLeike】 【超级智能对齐团队
 

  5月18日凌晨,OpenAI安全主管、“超级智能对齐团队”责任人Jan Leike在社交平台宣布,离开OpenAI。这也是本周三OpenAI联合开创人兼首席科学家Ilya Sutskever辞职之后,又有一名高管辞职。

  Jan Leike在X上公开透露了他离职的部分原因。他的潜台词是,他与OpenAI高层在公司的核心优先事项上存在长期分歧,最终双方的分歧已经严重到无法调和的境界。团队在推动其研究项目和争取计算资源时遇到了重大阻碍,缺乏资源会严重影响研究的进度和质量。

本周五(当地时间5月17日),OpenAI证实,由Ilya和他的亲信Jan Leike共同领导的“超级智能对齐团队”已经解散。尔后,该团队的研究工作将被整合到OpenAI的其它研究小组中。至此,一度几乎造成OpenAI土崩瓦解的宫斗事件终于尘埃落定。

  马斯克针对OpenAI的长期 人工智能 风险团队已经解散这一消息评价称:“这显示安全其实不是OpenAI的首要任务。”

  OpenAI首席执行官Sam Altman感谢并肯定了Jan Leike在OpenAI的贡献和领导能力。并表示,未来几天内会发表一篇更长的文章,来阐述OpenAI对于产品安全的规划和所做的事情。

  加入OpenAI之前,Jan Leike曾在谷歌DeepMind工作,主要负责从人类反馈中进行强化学习的原型设计。在OpenAI期间,参与了InstructGPT、ChatGPT的开发和GPT-4的安全对齐工作。

  对于Ilya、Jan的辞职,有人表示这两位安全领导高管都辞职了,以后谁来负责OpenAI的产品安全呢?

  也有一位网友透露,想离开OpenAI没问题,可是你务必签署一份“离职协议”, 假如你不签署终身不诋毁承诺,将丢失所有已获得的OpenAI股权。不晓得Jan Leike的一番吐槽,是否会影响到他的股权。

  在去年7月份,OpenAI宣布成立一个新的研究团队“超级对齐”,要用AI监督AI的形式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI全面的目标要和人类的价值观与利益相一致。公司开创人之一伊利亚·苏茨克沃被任命为团队共同责任人。

  而现在AI风险团队解散是公司内部最近出现动荡的又一证据,也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的疑惑。OpenAI章程规定,务必安全地开发通用 人工智能 (AGI),即可以与人类匹敌或超越人类的技术。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-7-7【大模型】无限光年漆远 - AI大模型在行业落地需要更加可信
2024-7-6【大模型】2024 WAIC - 容犀智能大模型应用升级发布 金融场景现新业态
2024-7-6【大模型】人工智能大会深观察 - 大模型应该如何卷应用?开源闭源谁更有未来?
2024-7-5【大模型】2024WAIC热议大模型与高质量数据供给 - 蚂蚁集团推出大模型密算平台
2024-7-4【大模型】中国科协创新战略研究院调研三六零 - 强调应重视大模型安全问题
2024-7-3【人工智能】OpenAI - CEO奥尔特曼称AGI会让全球GDP翻倍、理解前董事会的焦虑
2024-7-3【大模型】三六零免费发放1万张AI月卡-体验券- 周鸿祎 - 拥抱大模型要找到-明星场景-
2024-7-3【iPhone】苹果料将获得OpenAI董事会观察员职位
2024-7-2【人工智能】欧盟加大对人工智能巨头交易审查力度
2024-7-1【马斯克】中国小女孩向马斯克报特斯拉Bug - 马斯克回复
 ● 相关资讯专题
大模型】  【周鸿祎】  【OpenAI】  【人工智能】  【蚂蚁集团】  【研究院】  【董事会】  【明星场景】  【iPhone】  【俄罗斯】  【苹果公司】  【安全局】  【观察员】  【马斯克】  【Grok】  【xAI】  【Bug】  【特斯拉】 
  • 网络建设业务咨询

   TEl:13626712526