安大互联
财经热点 > 财经资讯 > 大模型融资战事启幕 - MiniMax估值超25亿美元,互联网大厂-掘金-AI - GAI进化论⑩
【服务器】大模型融资战事启幕 - MiniMax估值超25亿美元,互联网大厂-掘金-AI - GAI进化论⑩
浏览次数:【144】  发布日期:2024-4-19 16:43:59    文章分类:财经资讯   
专题:服务器】 【算力服务】 【MiniMax】 【互联网
 

  21世纪经济报道记者张梓桐上海报道

  4月19日,有市场消息称,中国AI草创公司MiniMax当前估值已经超过25亿美元。

  此前,MiniMax进行了新一轮大规模融资,阿里巴巴为其中的核心领投方。

  而在前一日,有媒体透露称,由王小川建立的百川智能进行新一轮数亿美元融资,将成为国内2024年最大AI领域融资之一。

  来自参与的投资人证实,百川智能今年以来估值已超18亿美元(约合人民币130亿元)。对此,百川智能回应称:并未官方对外披露过最新融资信息,报道中涉及的钱财也不准确。

  但不管咋样,一个有意思的现象是,上述AI明星创业项目背后或多或少都站着互联网大厂的身影。

  以另外两家明星公司——智谱AI和月之暗面为例,在智谱AI2023年累计获得的超25亿人民币融资中,投资方囊括了美团、蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、好未来、红杉、高瓴等许多家机构。

  而此前有消息报道称,在月之暗面上一轮的融资中,大部分资金都来自于阿里巴巴,这也让阿里在这轮融资之后成了月之暗面团队之外的机构大股东。而更值得注意的是,阿里这笔投资中有一部分属于算力支付。

  “互联网大厂投资AI创业公司有着充分的市场逻辑:一方面阿里巴巴、腾讯都在AI大模型领域进行自研、这是业务上的天然协同性;另一方面,这些公司在成长性方面都有着很大的想象空间,因此在财务回报上十分可期。”一位AI创业公司合伙人对21世纪经济报道记者分析道。

  明星创业项目

  MiniMax母公司为名之梦(上海)科技有限公司,建立于2021年11月,专注于研发中文大语言模型,在今年6月获得腾讯等机构投资的超2.5亿美元融资后,其估值已经到了12亿美元,是国内目前估值最高的AIGC 独角兽

  公司团队主要来自商汤科技等知名 人工智能 公司,开创人是商汤科技前副总裁闫俊杰。根据SuperCLUE发布中文通用大模型综合性评测基准2023年8月榜单,MiniMax的MiniMax-abab5模型在OPT排行榜位列第四,仅次于ChatGPT-4、ChatGPT-3.5和Claude-2,在国内大模型产品中位列第壹。

  2023年8月底,共有8家大模型公司通过了《生成式 人工智能 服务管理暂行办法》首批备案,其中除了百度文言一心、抖音云雀大模型这些较为颇有知名度的大厂外,MiniMax便于其中之一。

  目前,MiniMax已推出自研角色饰演类AI聊天应用Glow、自研通用大模型ABAB,和为 金山办公 等B端客户发布了相应解决方案。此前,MiniMax已完成3轮融资,投资方包含腾讯、米哈游等。

  另一家公司百川智能则建立于2023年4月10日,由前搜狗公司总裁(首席执行官)王小川建立。其核心团队由来自搜狗、谷歌、腾讯、百度、华为、微软、字节等知名科技公司的AI( 人工智能 )顶尖人才组成。目前,百川智能的团队规模170余人,其中硕士及硕士以上学历员工占比近70%,研发人员占比超80%。

  成立仅半年,百川智能接连发布Baichuan-7B/13B,Baichuan2-7B/13B四款开源可免费商用大模型及Baichuan-53B、Baichuan2-53B两款闭源大模型,平均每28天就会发布一款新的大模型。

  Baichuan-7B/13B两款开源大模型在多个权威评测榜单均独占鳌头,累计下载量超过六百万次。Baichuan2-13B在MMLU、CMMLU、MedQA、USMLE等几大权威评估基准中,以绝对优势全方位领先LLaMA2。

  面临高昂训练成本

  A创业的理想虽然俯拾皆是,但从故事落地成产品,仍然需要金银财宝的钱财支持。这背后核心原因仍然在于大模型训练面临的高昂成本。

  放眼全球,除了几大科技巨头外,几乎没有企业承担得起大模型训练的高昂成本,算力不实现普惠化,任何关于AI和科技革命的畅想都将是海市蜃楼。

  “目前偏大规模的算力需求以B端和G端为主,算力降本需求十分迫切,要利用有限资金获取更多元的算力,同时优化算力资源配置和利用效率。”毕马威中国数字化赋能主管合伙人张庆杰接受21世纪经济报道记者采访时表示,在计算资源方面,大模型的练习需要大量的计算资源,包含CPU、GPU、TPU等。虽然中国算力具备一定的条件,但在计算资源方面还存在一定的短板,各行各业在底层计算资源上存在缺乏,这会限制大模型的练习和优化。

  据统计,OpenAI使用了1万-3万颗英伟达GPU来训练GPT-3.5模型。集邦咨询报告显示,如果以英伟达 A100 显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡。

  价格方面,当前国内可以买到的H800价格已经高达20万/张,而A100/A800价格已涨至15万、10万/张左右。以2000P算力需求为例,H800 GPU单卡算力2P,需要1000张,预测用卡成本为2亿元;A800单卡算力约为0.625P,需要数量为3200张,预计用卡成本就高达3.2亿元人民币。

  除了买GPU显卡,服务器还要考虑整机配置运算,包含CPU、存储、NV-Link通讯连接等,和电力消耗、场地租金和运维成本等原因,整个成本要超过6亿元以上,OpenAI则正在使用微软超级贵重的超级计算机,耗资数亿美元、用英伟达数万颗芯片的Azure云进行算力训练。

手机扫码浏览该文章
 ● 相关资讯推荐
2024-9-18【消费电子】市场需求企稳回升 - 深市电子行业公司多元布局挖掘增长潜能
2024-9-17【平治信息】平治信息 - 前瞻布局算力业务把握AI浪潮,新增订单已达6亿或成新引擎
2024-9-6【服务器】浪潮信息 - - AI冲浪能走多远?
2024-9-2【iPhone】科技早报 - MiniMax发布首款视频生成大模型;苹果新机渲染图再次曝光
 ● 相关资讯专题
消费电子】  【立讯精密】  【服务器】  【平治信息】  【浪潮信息】  【毛利率】  【AI服务器】  【同比增长】  【iPhone】  【字节跳动】  【MiniMax】 
  • 网络建设业务咨询

   TEl:13626712526