商业洞察
【OpenAI】不满忽视安全 - OpenAI核心安全团队解散
【查看信息来源】 5-21 6:54:53据美国消费者新闻与商业频道近日报道,美国开放 人工智能 研究中心OpenAI近来内部动荡持续。最近,OpenAI原核心安全团队“超级对齐”责任人杨·莱克在社交网络上宣布他我已辞职,另外,这一团队的其它多名核心成员也纷纷离开,这一团队就此解散。杨·莱克17日在推文中怒斥OpenAI在追求绣花枕头的产品,疑问OpenAI不再关心安全。
本月17日,杨·莱克在社交网站发布多条推文,公开自己离开OpenAI的根本原因,他表示,过去几年,安全文化和流程已经让位于“闪耀的产品”。这是OpenAI高管级别的人物第壹次公开承认公司重视产品开发胜过安全。
报道称,杨·莱克被认为是追随伊利亚·苏茨克韦尔选择离职。本月14日,在重磅发布ChatGPT-4的超级升级版——GPT-4o后不到36小时,OpenAI联合开创人兼首席科学家伊利亚·苏茨克韦尔宣布离职。报道援引知情人士的话称,重视 人工智能 系统安全的员工已经对公司首席执行官萨姆·奥尔特曼的领导失去信心。
据美国《华尔街日报》报道,苏茨克韦尔将注意力聚焦在确保 人工智能 不会伤害人类上,而包含奥尔特曼在内的其它人则更渴望推动新技术的发展。
人工智能 引领数字安全变革的同时,其安全性也备受关注。加拿大全球新闻网近日报道称,一份来自加拿大魁北克 人工智能 研究所的最新报告指出,在不久的将来, 人工智能 可能显现各种各样的发展轨迹,包含非常积极和非常消极的结果,包含 人工智能 可能通过虚假信息、欺诈和网络攻击造成伤害,甚至人类可能失去对 人工智能 的控制。