安大互联
财经热点 > 财经资讯 > 微软、英伟达纷纷押注小模型,大模型不香了?
【SLM】微软、英伟达纷纷押注小模型,大模型不香了?
浏览次数:【837】  发布日期:2024-8-25 22:21:11    文章分类:财经资讯   
专题:SLM】 【LLM】 【英伟达
 

K图 MSFT_0

K图 NVDA_0

  在 人工智能 发展的道路上,科技巨头们曾经竞相开发规模庞大的语言模型,但如今出现了一种新趋势:小型语言模型(SLM)正逐渐崭露头角,挑战着过去“越大越好”的观念。

  当地时间8月21日,微软和英伟达相继发布了最新的小型语言模型——Phi-3.5-mini-instruct和 Mistral- NeMo- Minitron8B。这两款模型的主要卖点是它们在计算资源使用和功能表现之间实现了良好的平衡。在某些方面,它们的性能甚至可以媲美大模型。

   人工智能 草创公司Hugging Face的首席执行官Clem Delangue指出,高达99%的使用场景可以通过SLM来处理,并预测2024年将成为SLM之年。据不完全统计,包含Meta、微软、谷歌在内的科技巨头们今年已经发布了9款小模型。

  大模型训练成本攀升

  SLM的崛起其实不是偶然,而是与大模型(LLM)在性能提升与资源消耗方面的挑战密切相关。

  AI 草创公司 Vellum 和Hugging Face今年4月份发布的性能比较表明,LLM之间的性能差距正在迅速缩小,尤其是在多项选择题、推理和数学问题等特定任务中,顶级模型之间的不同极小。例如,在多项选择题中,Claude 3 Opus、GPT- 4 和Gemini Ultra的准确率均超过83%,而在推理任务中,Claude3 Opus、GPT-4和Gemini 1.5Pro的准确率均超过92%。

  Uber AI 前责任人 Gary Marcus指出:“我想每个人都会说GPT-4比GPT-3.5领先了一步,但尔后的一年多没有任何质的飞跃。”

  与有限的性能提升相比,LLM的练习成本却在不断攀升。训练这些模型需要 海量数据 和数以亿计甚至万亿个参数,造成了极高的资源消耗。训练和运行LLM所需的计算能力和能源消耗令人咋舌,这使得小型组织或个人难以参与核心LLM开发。

  国际能源署估计, 数据中心 、加密货币和 人工智能 相关的电力消耗到2026年,会大致相当于日本全国的用电量。

  OpenAI首席执行官 阿尔特 曼曾在麻省理工学院的一次活动上表示,训练GPT-4的成本至少为1亿美元,而Anthropic首席执行官Dario Amodei预测,未来训练模型的成本可能达到1000亿美元。

  另外,使用LLM所需的工具和技术的复杂性也增加了开发人员的学习曲线。从训练到部署,整个过程耗时漫长,减缓了开发速度。剑桥大学的一项研究显示,公司可能需要90天或更长时间才能部署一个机器学习模型。

  LLM的另外一个重大问题是容易发生“幻觉”——即模型生成的输出看似合理,但其实其实不正确。这是由于LLM的练习方式是根据数据中的模式预测下一个最可能的单词,而非真正理解信息。因此,LLM可能会自信地生成虚假陈述、编造事实或以荒谬的形式组合不相关的概念。如何检测和减少这些“幻觉”是开发可靠且可信赖语言模型的持续挑战。

  小模型可降低成本

  对LLM巨大能源需求的担忧,和为企业提供更多样化AI选项的市场机会,让科技公司将注意力逐渐转向了SLM。

  《每日经济新闻》记者了解到,甭管是Arcee、Sakana AI和Hugging Face等AI草创公司,还是科技巨头都在通过SLM和更经济的形式吸引投资者和客户。

  此前,谷歌、Meta、OpenAI和Anthropic都发布了比旗舰LLM更紧凑、更灵活的小模型。这不仅降低了开发和部署的成本,也为商业客户提供了更便宜的解决方案。鉴于投资者越来越担忧AI企业的高成本和不明确的回报,更多的科技公司可能会选择这条道路。即便是微软和英伟达,如今也先后推出了自己的小模型(SLM)。

  SLM是LLM的精简版本,具有更少的参数和更容易的设计,它们需要更少的数据和训练时间——只需几分钟或几钟头。这使得SLM更高效,更易于在小型设备上部署。例如,它们可以嵌入到手机中,而无需占用超算资源,从而降低成本,并明显提升响应速度。

  SLM的另外一个主要优势是其针对特定应用的专业化。SLM专注于特定任务或领域,这使它们在实际应用中更加高效。例如,在情绪分析、命名实体识别或特定领域的问答中,SLM的表现往往优于通用模型。这种定制化使得企业能够建立高效满足其特定需求的模型。

  SLM在特定领域内也不容易出现“幻觉”,因为它们通常在更窄、更有针对性的数据集上训练,这有助于模型学习与其任务最相关的模式和信息。SLM的专注性降低了生成不相关、意外或不一样输出的存在性。

  尽管规模较小,SLM在某些方面的性能其实不逊色于大模型。微软最新推出的Phi-3.5-mini-instruct仅拥有38亿个参数,但其性能优于Llama3.18B和Mistral7B等参数远高于它的模型。美国东北大学(位于美国马萨诸塞州波士顿,是一所卓越的私立研究型大学)语言模型研究专家Aaron Mueller指出,扩展参数数量其实不是提高模型性能的唯一途径,使用更高质量的数据训练也可以发生类似效果。

  OpenAI首席执行官 阿尔特 曼在4月的一次活动中表示,他相信当前正处于巨型模型时代的末期,“我们将通过其它方式来提升它们的表现。”

  不过,需要谨防的是,虽然SLM的专业化是一大优势,但也有局限性。这些模型可能在其特定训练领域之外表现欠安,缺乏广泛的知识库,和LLM相比无法生成广泛主题的相关内容。这一限制要求用户可能需要部署多个SLM来覆盖不一样的切实需求领域,从而使AI基础设施复杂化。

  随着AI领域的快速发展,小模型的标准可能会不断变化。东京小模型草创公司Sakana的联合开创人兼首席执行官David Ha表示,几年前看似庞大的AI模型,现在看来已经显得“适中”。“大小总是相对的。”David Ha说道。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-9-15【反垄断】微软、英伟达等频陷反垄断调查,AI领域为何引发竞争担忧?
2024-9-14【GPU】行业投融资降至冰点 - 国产GPU或将洗牌
2024-9-14【GPU】行业投融资降至冰点 - 国产GPU行业或将洗牌
2024-9-14【GPU】国产GPU行业或将洗牌
2024-9-12【GPU】英伟达的蝴蝶风暴 - 一国产GPU公司的困境之问
2024-9-12【英伟达】英伟达暴涨8%!黄仁勋安抚市场 - AI芯片抢购潮还在继续,所有人都指望我们
2024-9-12【乘用车】财经早参 - 纳指涨超2% 英伟达市值大增1.5万亿元;金融圈重磅!国务院发布;海银财富被立案 多人被抓
2024-9-12【英伟达】美股成交额前20 - 英伟达涨超8% 黄仁勋表示AI芯片Blackwell需求强劲
2024-9-12【iPhone】美股三大指数集体上涨 - - 纳指涨近2% - 英伟达股价大涨
2024-9-11【英伟达】-AI总龙头-涨势远未结束?分析师 - 英伟达股价有望再翻一番
 ● 相关资讯专题
反垄断】  【英伟达】  【GPU】  【半导体】  【投融资】  【GPU公司】  【黄仁勋】  【AI芯片】  【乘用车】  【微信支付】  【海银财富】  【国务院】  【Blackwell】  【成交额】  【iPhone】  【俄罗斯】  【苹果公司】  【安全局】  【美股三大指数】  【东京电子】  【AI总龙头】 
  • 网络建设业务咨询

   TEl:13626712526