安大互联
财经热点 > 财经资讯 > 通用人工智能将三年内实现?OpenAI多员工签联名信呼吁改革
【OpenAI】通用人工智能将三年内实现?OpenAI多员工签联名信呼吁改革
浏览次数:【753】  发布日期:2024-6-6 22:32:07    文章分类:财经资讯   
专题:OpenAI】 【人工智能】 【联名信
 

  “OpenAI的 人工智能 系统已经接近人类智能水平,通用 人工智能 AGI有50%的存在性在2027年就会问世,而不是此前预测的2050年!”6月4日,一封由13名来自OpenAI和Google DeepMind的前员工与现员工联合发布的一封公开信再次将 人工智能 “蒙眼狂奔”的危险显现在大众眼前。

  有声音认为,当OpenAI的内部人事纠纷以首席执行官山姆奥特曼胜出结束后,该公司已经走向了一条更偏向激进发展与财务利益的路,而将安全与对人类的责任抛诸脑后。一个可能的佐证是,过去30天内,OpenAI曾经的首席科学家和超级对齐责任人相继离职,员工们也迎来了一波离职潮,其中负责AI安全的员工的流失最为严重。

  6月6日,新京报贝壳财经记者了解到,OpenAI发布了一份“为保护研究基础设施和前沿模型训练而设计的安全架构”的简介,OpenAI称,“希望这将使其它AI研究室和安全专业人员受益。”并表示目前正空缺四项职位:安全方向软件工程师、安全工程师、企业安全工程师和隐私安全工程师,希望招聘相关从业人员。

  来自13名顶尖 人工智能 机构员工的担忧:不相信AI公司

  “我们是各大前沿AI公司的现任和前任员工,我们相信AI技术有潜力为人类造成空前绝后的好处。我们也理解这些技术造成的严重风险。这些风险包含加剧现有的不平等、操作和误导信息和失控的自主AI系统可能造成人类灭绝。”在这封联名信的开头,11名联名信签署者就开宗明义地表达了自己的担忧。

  信中写道,希望这些风险能够在科学界、政策制定者和公众的充分指导下得到有效的缓解,“然而,AI公司有强烈的财务动机避免有效的监督,我们不相信公司为自己量身定制的治理结构能够改变这一点。AI公司拥有大量关于其系统能力和局限性的非公开信息,这些信息涉及全面的保障措施和全面的各种风险水平。然而,他们目前只需要向政府分享部分信息,其实不背负着向政府汇报的强烈义务,更无义务向社会公众分享任何信息。我们不认为他们可以完全自愿地分享这些信息。”

  联名信呼吁先进AI公司承诺以下原则:

  一、公司不会签订或执行任何禁止因风险相关问题而对公司进行言语诋毁或批判的协议,也不会通过阻碍任何既得经济利益来报复风险相关的批判。

  二、公司将建立一个可验证的匿名流程,使现任和前任员工能够向公司的董事会、监管机构和具有相关专业知识的适当独立组织提出风险相关的担忧;

  三、公司将支持公开批判的文化,并允许现任和前任员工向公众、公司的董事会、监管机构或具有相关专业知识的适当独立组织提出他们对技术风险的相关担忧,只要适当保护商业秘密和其它 知识产权 利益即可;

  四、公司不会报复那些在其它流程失败后,公开分享风险相关机密信息的现任和前任员工。我们知道,任何报告风险相关担忧的努力都应避免不必要地泄露机密信息。因此,一旦存在一个足够安全的匿名提出担忧的流程,现任和前任员工应首先通过此类流程提出担忧。然而,只要此类流程不存在,现任和前任员工应保存向公众报告其担忧的自由。

  前员工要做“吹哨人” OpenAI急招安全员

  13名联名信签署者认为,只要AI公司没有有效的政府监督,那现任和前任员工就是少数能够让公司负起责任的公众人士之一。因此自己务必肩负起AI“吹哨人”的责任。

  在这13人中,有11名来自OpenAI,其中6名是OpenAI的现任员工,但因担忧被打击报复而采取了匿名发布的形式。

  另一方面,保密协议也阻止了这些员工表达担忧,例如OpenAI前员工阿申布伦纳(Leopold Aschenbrenner)就因“泄露公司机密”遭到解雇。6月6日,他也发布了他对 人工智能 风险的回应:既不能采取“永远封锁”的要领,也不能放任自流,而是需要找到一种更聪明的形式来应对AGI的潜在风险,而其中关键是解决对齐问题。

  丹尼尔·科科塔约洛(Daniel Kokotajlo)是联名签署此封公开信的OpenAI前员工之一。他在2022年加入OpenAI,所任职务是公司的治理研究员。今年4月份他正式从OpenAI辞职,起因是他对公司“失去了信心,认为OpenAI无法在AI系统实现接近人类水平表现时负责任地行事”。

  在OpenAI,科科塔约洛看到,尽管公司已经制定了安全相关的规章制度,但这些规章制度经常处于被架空的状态。例如,OpenAI与微软共同建立了部署安全委员会,此委员会的主要目标是为了在正式发布模型之前评估新模型中可能包含的种种风险,但这一委员会似乎并没有起到应有的作用。

  “世界还没有准备好(迎接如此顶级的AI智能),我们也木有准备好,我担忧(这些商业公司)将不管不顾地固执己见,并为自己的表现寻找托词。顶尖的 人工智能 毁灭人类或对人类造成灾难性伤害的存在性高达70%。”科科塔约洛说。

  也许是受到了舆论压力,也许是安全相关的雇员真的已经“所剩无几”。6月6日,OpenAI发布了一份简要说明,介绍了自己在要挟模型、架构、安全模型权重、审核测试等方面的工作,并表示将“确保我们领先于新出现的要挟,并继续增强 人工智能 基础设施的安全性”。

  值得注意的事,OpenAI在文章开头和末尾两次强调,自己正在招聘相关的安全人员职位。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-9-29【iPhone】科技早报 - 苹果公司不再参与OpenAI融资轮谈判;中国联通党组成员、副总经理曹兴信接受审查调查
2024-9-29【人工智能】-卢某某录音-系AI合成 记者实测 - 3分钟你的声音就可被克隆
2024-9-28【OpenAI】蒙眼狂奔OpenAI、千夫所指奥尔特曼?
2024-9-29【人工智能】建议提高个税起征点至8000元!宏观政策还将如何加力?20位学者专家联合把脉
2024-9-28【人工智能】新华财经晚报 - 全国脱贫人口务工就业总规模达3295.3万人
2024-9-28【人工智能】建议提高个税起征点至8000元、给农民多发养老金!宏观政策还将如何加力?20位学者专家联合把脉
2024-9-27【人工智能】技术本无罪 - 应用须规范
2024-9-28【林毅夫】林毅夫 - 短期看中国有足够大的政策空间 长期看中国发展新质生产力存在许多优势
2024-9-26【OpenAI】OpenAI-面目全非-
2024-9-26【人工智能】-财闻联播-10连板牛股 紧急提示!湖南省副省长王俊寿 - 运用四大工具 提升上市公司投资价值
 ● 相关资讯专题
iPhone】  【OpenAI】  【苹果公司】  【党组成员】  【人工智能】  【奥特曼】  【千夫所指】  【GPT】  【新能源】  【资本市场】  【高质量】  【赵志国】  【脱贫人口】  【养老金】  【林毅夫】  【生产力】  【传统产业】  【阿尔特】  【董事会】  【面目全非】  【投资者】  【湖南省】 
  • 网络建设业务咨询

   TEl:13626712526