安大互联
财经热点 > 财经资讯 > 风险团队解散 - OpenAI宫斗再起
【OpenAI】风险团队解散 - OpenAI宫斗再起
浏览次数:【776】  发布日期:2024-5-19 23:16:01    文章分类:财经资讯   
专题:OpenAI】 【奥特曼】 【人工智能
  网络截图

  在“宫斗”半年后,OpenAI离职潮的体面还是被打破了,该公司“守卫人类”的团队土崩瓦解。不仅首席科学家伊利亚·苏茨克沃(Ilya Sutskever)和他的亲信、超级对齐团队责任人之一的简·雷克(Jan Leike)双双离职,他们共同领导的“超级智能对齐团队(AI风险团队)”也被证实解散。同时,他们直指离职内幕——OpenAI开创人奥特曼(Sam Altman)不给资源、力推商业化不顾安全。这也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的疑惑。

  突然离职

  最新的GPT-4o上线短短几天之内,OpenAI迎来一次又一次的人事动荡。美东时间5月14日,伊利亚·苏茨克沃官宣离职。同日,简·雷克也宣布离职。上周五,OpenAI最终证实,由苏茨克沃和简·雷克共同领导的“超级智能对齐团队”已经解散。

  官宣离职次日凌晨,简·雷克在社交平台X上连发13条推文,爆料离职的根本原因及更多内幕。总结来看,一是算力资源不够用,二是OpenAI对安全不够重视。这也是OpenAI高管级别的人物第壹次公开承认公司重视产品开发胜过安全。

  此次两位离职科学家负责的超级对齐项目,建立的时间才不到一年,之前定下的目标是在四年内解决超智能AI的对齐问题。OpenAI曾表示,会将20%的算力用于该项目的研究。

  而站在奥特曼的立场,维护超级对齐团队是一项庞大的开支,这势必会削弱OpenAI新产品开发的资源,而投资超级对齐团队其实是在投资未来。据OpenAI超级对齐团队的一位人士透露,20%计算资源的承诺被揍了折扣,其中一小部分计算的要求我们时常被拒绝,这阻碍了团队的工作。

  而一份有关“封口协议”的爆料,又让这件事显得更加虚无缥缈。一位名为Kelsey Piper的OpenAI前员工爆料称,公司任何员工的入职文件说明中都有这样一项要求,即“在离开公司的60天内,员工务必签署一份包含‘一般豁免’的离职文件。如果没有在60天内完成签署,员工的股权收益就会被取消”。说白了,OpenAI以股权为前提,制定了令员工认为不正确的离职条款。

  5月19日,奥特曼在爆料传出后迅速于X回应称,“我们从未收回过任何人的既得股权,假如有人不签署离职协议,我们也不会这样做,既得股权就是既得股权”。

  “宫斗”余波

  与离职风波同步而来的是OpenAI面临的舆论危机,也是领导层和董事会都不愿意看到的舆论危机。毕竟公司从上一波宫斗戏结束到趋近平稳,才过去不到半年。据媒体不完全统计,自去年11月直到今天,OpenAI至少有7名重视AI安全的成员辞职或被开除。

  当时的种种“剧情”,或已透露出这个团队和OpenAI管理层之间的分歧。在那场董事会风波中,苏茨克沃曾与OpenAI原董事会合作试图解雇奥特曼。OpenAI在公告中称奥特曼对董事会不够坦诚。

  当时有人将其解读为:OpenAI可能已经在内部实现了AGI(通用 人工智能 ),但并没有将消息及时同步给更多人员,为了防止该技术未经安全评估就被大规模应用,苏茨克沃等人按下了紧急停止键。不过仅仅一个周末的时间,奥特曼就重返OpenAI董事会,并且之前撤销他的董事被纷纷解雇,董事会宣布重组。

  一场风波之后,奥特曼似乎可以更自由地管理OpenAI了,而苏茨克沃陷入了尴尬。这几个月来,他动态甚少。据知情人士透露:“苏茨克沃已经大约有6个月没有在OpenAI的办公地点出现了,他一直远程领导超级对齐团队”,直到正式宣布离职。

  至于接着的安排,苏茨克沃在其X推文中称他会开发一个全新有意义的项目,适当的时候就会披露更多细节。有人猜想,他可能会加入马斯克的xAI,虽然有戏剧性,但也不排除可能性。

  苏茨克沃1985年诞生于苏联,成长于以色列,会俄语、希伯来语和英语。在多伦多大学求学期间,他师从“现代 人工智能 之父”杰弗里·辛顿,并与其合作开发了AlexNet,该神经网络的诞生极大地推动了深度学习技术在图像识别领域的应用。

  2015年,在马斯克力邀之下,苏茨克沃加入OpenAI,成为草创团队的一员,在ChatGPT语言模型和Dall-E图像生成器的研发进程中饰演了关键角色。

  《纽约时报》报道称,苏茨克沃加入OpenAI后参与了涉及神经网络的 人工智能 突破,这项技术在过去十年中推动了该领域的明显进步。2023年,苏茨克沃入选2023年度十大科学人物榜单(Nature's 10),被Nature评价为“ChatGPT和其它改变社会的 人工智能 全面的先驱”。

  安全疑问

  在外界看来,OpenAI的确已经不再像当初那样开源,网友也开始戏称其为“CloseAI”。在公司表达的立场上,闭源是出于安全考虑。但如今,安全性的责任人相继离职并公开批判,这意味着,OpenAI再用“安全”因素为闭源做解释,已经有些难以维系局面了。

  马斯克针对OpenAI超级对齐团队已经解散这一消息评价称:“这显示安全其实不是OpenAI的首要任务。” 据外媒Vox 报道,一位不愿透露姓名的企业内部人士表示:“这是一个信任一点一点溃散的过程,就像多米诺骨牌一张一张倒下一样。”

  深度科技研究院院长张孝荣对北京商报记者表示,对于OpenAI而言,产品和技术的升级是一方面,如何处理好人才和管理的问题,也显得更为重要了。尤其是AI该类话题,在其不断爬升的进程中,甭管是对技术本身还是公司的争议只会越来越多。

  当AI安全领域的领军人物之一说全球可靠的AI公司没有走在正确的轨道上时,所有人想必都有理由感到担忧。正如简·雷克在X上发出的劝告:“建造比人类更聪明的机器本身就是一项危险的尝试。OpenAI正肩负一个代表着全人类的巨大责任。OpenAI务必成为一家安全第壹的 人工智能 公司。”

  面对周末曝光的大量信息,奥特曼回复称,接着几天会写一篇长文说明这些问题。此刻,市场、行业和资本都在等OpenAI的更多解释。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-7-8【大模型】人形机器人正成为行业变革力量
2024-7-8【人形机器人】多家公募竞相直播人工智能大会 - 人形机器人有望迎来贝塔机会
2024-7-8【人工智能】WAIC 2024 - 大模型需要颠覆性应用,依靠技术与产业积累
2024-7-8【大模型】人形机器人正成为行业变革力量 - 2024 - WAIC展现四大趋势
2024-7-7【亚里士多德】2024孔子与亚里士多德论坛将于7月11至12日在北京举办
2024-7-7【大模型】大模型如何-卷-才能制胜?对话面壁智能首席科学家刘知远
2024-7-7【大模型】人工智能大会深观察 - AI爱因斯坦何时才能出现?缩放定律放缓意味着什么?
2024-7-7【XREAL】XREAL参展人工智能大会 - 多款AR设备受追捧
2024-7-7【Meta】南财合规周报-第149期- 实测9款AI产品填高考志愿;欧盟新法向Meta挥刀
2024-7-7【人工智能】中金研究院吴慧敏 - AI将带动中国经济增长比基准水平提高近10%
 ● 相关资讯专题
大模型】  【人工智能】  【人形机器人】  【WAIC】  【亚里士多德】  【2024】  【共同体】  【刘知远】  【科学家】  【创业公司】  【XREAL】  【吴克艰】  【智能大会】  【Meta】  【反垄断】  【高考志愿】  【吴慧敏】  【研究院】 
  • 网络建设业务咨询

   TEl:13626712526