• 1
  • 2
  • 3

商业洞察

【OpenAI】OpenAI前董事揭露-解雇门-内幕 矛头再次指向奥特曼

查看信息来源】   5-29 16:02:28  
OpenAI】【委员会】【董事会】【解雇门

  “私营企业推动革命性新技术的界限前进时,我们是否可以期待它们在符合股东利益的同时也符合更广泛世界的利益?”

  最近,OpenAI两名前董事海伦·托纳((Helen Toner)、塔莎·麦考利(Tasha McCauley)在《经济学人》上撰文,指出该公司存在巨大的管理漏洞,并将矛头直指总裁山姆·奥特曼(Sam Altman)。

  两人分别于2018年、2021年加入该公司董事会。进入OpenAI时,她们对公司自我治理的创新方法可能为负责任的AI发展提供蓝图持谨慎乐观态度。

  成立之初, OpenAI被认为是一家非营利机构,旨在确保人工通用智能(AGI)或比人类更聪明的 人工智能 系统将“惠及全人类”。但为了筹集必要的钱财,OpenAI建立了一个营利性子公司,同时由非营利机构掌权。

  她们在文中称,设计这一空前绝后的结构,目的在于维护坚持其原始使命,董事会的任务就是维护这一使命,“不幸的是,它没有成功。”

  而在ChatGPT横空出世以后,OpenAI在商业化的道路上狂奔。直到“解雇门”事发,公司内部的巨大矛盾才被外界窥见。

  二人在文章中针对奥特曼被解雇一事给出了正面回应,这也是该公司内部人士第壹次在媒体上针对这一事件进行回应。

  她们提及,之所以OpenAI董事会解雇了奥特曼,是为了挽救公司的自我监管结构。长期以来,奥特曼的表现模式造成董事会维护公司使命的能力越来越受限,包含削弱董事会对关键决策和内部安全协议的监督。

  该公司多位高管私下向董事会表达忧虑,认为奥特曼培养了一种“布满谎话的有毒文化”,并参与了“可以定性为心理虐待的表现”。

  针对去年震惊全球的“解雇门”,二人直言她们其实不后悔通过解雇奥特曼来重塑OpenAI,但仍然担忧OpenAI在推动技术进步方面的作用。

  “自奥特曼重返掌舵以来的发展,尤其是顶级安全人才的离职,预示着OpenAI自治实验的不祥之兆。”她们说道。

  奥特曼重返OpenAI后,该公司曾对外表示,董事会“在其广泛自由裁量权内”解雇了奥特曼,但也得出结果认为他的表现“没有要求解雇”。

  二人疑问,OpenAI几乎没有提供具体的理由来证明上述结论,也木有将调查报告公开给员工、媒体或公众。

  一直以来,AI安全问题备受关注。两位前OpenAI董事认为,根据经验,自我治理无法可靠地抵御利润激励的压力。“AI具有巨大的正面和不良影响潜力,仅仅假设这样的激励措施总是与公共利益相一致是不够的。为了AI的崛起能够惠及每个人,政府务必现在开始构建有效的监察管理框架。”

  她们指出,OpenAI提供了教训,即社会绝不能让AI的推出完全由私营科技公司控制。缺乏外部监督的自我监管最终将变得无法执行,尤其是在巨大利润激励的压力下。因此,政府务必施展积极作用。

  近几个月来,从华盛顿议员到硅谷投资者,越来越多的人主张对AI进行最少的政府监管,并将AI与上世纪90年代互联网造成的经济增长同日而语。“然而,这种类比是误导性的。”二人观察到,在AI公司内部和科研人员和工程师社区中,AI造成的巨大风险正在被广泛承认。

  奥特曼也称,“成功过渡到一个拥有超级智能的世界可能是人类历史上最重要的、布满希望的、可怕的工程项目。”许多顶尖AI科学家对他们自己正在构建的技术表达了忧虑,这与早期互联网的程序员和网络工程师的乐观态度大不相同。

  托纳和麦考利强调,由于缺乏有效监管,AI造成了以下三大问题:一是成功的科技公司及其投资者从在线商业的缺乏监管中获得了巨大的利益。二是社会在监管社交媒体上的错误信息和不实信息、儿童盘剥和人口兜售和日益严峻的青少年心理健康危机方面是否达到了正确的平衡。另外,明智的监察管理可以确保AI的利益得到负责任和更广泛地实现。政府应当制定政策,且加强设计管理,让更多人了解AI前沿的进展情况,如透明度要求和事件跟踪。

  二人认为,设计不妥的监察管理可能会给小公司造成不成比例的担子,抹杀竞争和创新。在制定新规时,政策制定者务必独立于可靠的AI公司。监管框架需要灵活调整,以跟上AI能力对世界不断增长的领会。

  “我们相信AI有潜力以空前绝后的形式提高人类的生产力和福祉,但通往更好将来的道路其实不是没有危险。”她们表示。

  在二人看来,OpenAI成立是一个大胆的实验,旨在优先考虑公共利益,而非为了利润开发越来越强大的AI。“但我们的经验是,即便拥有所有优势,OpenAI采用的自我治理机制也不足以满足需求。公共部门紧密参与技术发展是非常重要的。”她们说。

  此前屡次对OpenAI进行抨击的马斯克也称,“训练AI没有最大水平追求真相,这对人类很危险。”

  这次发文之所以引发外界侧目,还在于前阵子OpenAI被曝要求离职员工签署带有“不贬损承诺”的离职协议,不然就要放弃公司期权。

  尽管奥特曼表示对此其实不知情,但在随后曝光的协议中,他的签名赫然在列。很快,又有消息称该公司取消了“不贬损承诺”的离职协议。

  造成OpenAI深陷舆论漩涡的还有其核心人物伊尔亚·苏茨克维(Ilya Sutskever)的离职,和核心安全团队“超级对齐”也在近日被曝解散。他们在离职后纷纷通过社交媒体批判OpenAI的治理方式。

  或是作为回应,OpenAI成立了一个董事会委员会,用来评估其 人工智能 模型的安全性。这一举措距离该公司解散内部安全团队和安全问题责任人离职仅数周时间。

  新建立的委员会将在90天内评估OpenAI技术的保障措施,并提交报告。“董事会完成全面审查后,OpenAI将以符合安全原则的形式公开分享所采用的建议。”该公司周二在其博客中写道。OpenAI还表示,他们最近已经开始训练其最新的AI模型。

  面对高管离职、员工保密协议争议和盗用好莱坞女演员声音等一连串负面事件,奥特曼能否以“受损”的个人信誉率领OpenAI持续向前,将是短时间内AI行业的重要议题之一。

 ● 相关商业动态
 ● 相关商业热点
丁东湖】  【荣盛石化】  【内幕信息】  【内幕交易】  【委员会】  【金陵体育】  【移动式升降作业平台】  【反倾销】  【欧盟委员会】  【2025】  【美国国际贸易委员会】  【双反调查】  【反补贴】  【氧化铝】  【IDEAYA Biosciences】  【海通证券】  【并购重组】  【奥特曼】  【首席执行官】  【OpenAI】  【拼多多】  【产业带】  【商家权益保护委员会】  【陈永涛】  【凯龙股份】  【董事会】 

安大互联 - 您值得的拥有的网站建设专家
Email:401112684@qq.com
联系QQ:401112684
官方网址:www.fengbaosun.com
手机搜索:进入手机搜索导航>>

Copyright © 2006 www.fengbaosun.com 繁体中文