安大互联
  • 1
  • 2
  • 3
  • 4
  • 5
商业热点 > 商业洞察 > -越大越好-的路径走不通?OpenAI正在寻求训练模型的新方法

【OpenAI】-越大越好-的路径走不通?OpenAI正在寻求训练模型的新方法

查看信息来源】   发布日期:11-12 1:39:45    文章分类:商业洞察   
专题:OpenAI】 【Orion】 【越大越好

  许多 人工智能 (AI)科学家和草创公司认为,通过增加更多数据和算力来扩大当前模型,以持续改进AI模型的要领正在走到尽头。因此,像OpenAI这样的AI公司正在寻求通过开发新的练习技术来克服当前面临的挑战,这些技术更像人类的思考方式。

  自风靡全球的聊天 机器人 ChatGPT发布以来,科技公司都是通过增加更多数据和算力来扩大并改善AI模型。但现在,一些最杰出的AI科学家正在指出这种“越大越好”的局限性。

   人工智能 实验室Safe Superintelligence和OpenAI的联合开创人Ilya Sutskever近日表示,扩大预训练(训练AI模型的阶段,该模型使用大量未标记的数据来理解语言模式和结构)所取得的成果已经达到了一个平稳期,对提升模型性能的帮助有限。

  Sutskever早期主张通过在预训练中使用更多数据和算力来实现生成式AI的巨大飞跃,这最终创造了ChatGPT。他今年早些时候离开OpenAI,建立了Safe Superintelligence。

  Sutskever表示:“以前是规模扩张的时代,目前我们又回到了奇迹和发现的时代。每个人都在寻找下一个东西,这比以往任何时候都更重要。”

  另外,Sutskever还承认他的企业正在研究一种扩大预训练规模的替代方法,但未透露更多细节。

  新技术竞赛

  大模型的所谓“训练”需要同时运行数百个芯片,成本可能高达数千万美元。考量到全面的复杂性,它们更有可能发生硬件引发的故障;在测试结束之前,科研人员可能无法知道这些模型的最终性能,这可能需要几个月的时间。

  另外一个问题是,大语言模型吞噬了大量数据,而AI模型已经耗尽了全球所有容易获取的数据。电力短缺也阻碍了训练运行,因为这个过程需要大量的能源。

  为了克服这些挑战,科研人员正在探索测试时计算(test-time compute),这是一种在所谓的推理阶段或使用模型时增强现有AI模型的技术。例如,模型可以实时生成和评估多种可能性,最终选择最佳前进路径,而不是立即选择一个答案。

  这种方法使模型能够将更多的处理能力投放到具有挑战性的任务中,好比数学或编码问题或需要类似人类的推理和决策的复杂操作。

  OpenAI研究员Noam Brown此前表示:“事实证明,让一个 机器人 在一盘扑克牌中思考20秒,与将模型放大10万倍、训练时间延长10万倍的效果相同。”

  OpenAI 在其新发布的模型“o1”中采用了这项技术,这时,来自Anthropic、xAI和DeepMind等其它顶尖AI实验室的科研人员也在致力于开发自己的技术版本。

  OpenAI首席产品Kevin Weil表示:“我们看到了很多低垂的果实,摘下来让这些模型变得更好。等到人们奋起直追的时候,我们会努力开发新的技术。”

  多位科学家、科研人员和投资者认为,这种新技术可能会重塑AI军备竞赛,并对AI公司所需求的各类资源发生影响。

手机扫码浏览该文章
 ● 相关商业动态
 ● 相关商业热点
TikTok】  【OpenAI】  【马斯克】  【Meta】  【人工智能】  【司法部】  【iPad】  【创始人】  【Balaji】  【旧金山】  【ChatGPT】  【合理使用】  【营利性】  【吹哨人】  【脑机接口】  【基金会】  【SEC】  【Neuralink】  【资本市场】  【卷土重来】  【Mac】 
  • 客服与业务咨询

   【网络建设服务报价】