商业洞察

【DeepSeek】DeepSeek大消息!英伟达宣布

查看信息来源】   1-31 14:22:38  
DeepSeek】【人工智能】【英伟达


K图 NVDA_0

  【导读】DeepSeek R1正式上线英伟达NIM平台

  中国基金报记者含章

  1月31日,英伟达官宣,DeepSeek-R1模型已作为NVIDIA NIM微服务预览版,在英伟达面向开发者的网站上发布。

  据介绍,DeepSeek-R1 NIM微服务在单个英伟达HGX H200系统上,每秒最多可处理3872个Token。英伟达方面介绍称,DeepSeek-R1模型是最先进、高效的大型语言模型,在推理、数学和编码方面表现出色。

图片来自英伟达官方网站

英伟达平台上线DeepSeek

  1月31日,英伟达官方网站发布消息显示,DeepSeek-R1是一款具有先进推理能力的开源模型。与直接提供答案不同,像DeepSeek-R1这样的推理模型会对一个问题进行屡次推理,通过思维链、共识和搜索方法来生成最佳答案。

  英伟达称,执行这一系列推理过程(使用推理得出最佳答案)称为测试时间扩展。DeepSeek-R1是此扩展定律的完美示例,证明了加速计算对于代理AI推理的切实需求非常重要。

  由于模型可以反复“思考”问题,因此它们会建立更多输出Token和更长的生成周期,模型质量会不断提高。大量的测试时计算对于实现实时推理和来自DeepSeek-R1等推理模型的更高质量响应非常重要,这需要更大规模的推理部署。R1在需要逻辑推理、推理、数学、编码和语言明白的任务中提供了可靠的准确性,同时还提供了高推理效率。

  英伟达表示,为了帮助开发者安全地实验这些功能并构建自己的专业代理,拥有6710亿参数的DeepSeek-R1模型现已作为NVIDIA NIM微服务预览版在build.nvidia.com上线。DeepSeek-R1 NIM微服务可以在单个NVIDIA HGX H200系统上实现每秒3872个Token的处理能力。

  英伟达称,开发人员可以使用应用程序编程接口(API)进行测试和试验,该接口预计很快将作为可下载的NIM微服务提供,作为NVIDIA AI Enterprise软件平台的一部分。

  DeepSeek-R1 NIM微服务通过支持行业标准API来简化部署。企业可以在其首选的加速计算基础设施上运行NIM微服务,以最大化安全性和数据隐私。借助NVIDIA AI Foundry和NVIDIA NeMo 软件,企业还将能够建立定制化的DeepSeek-R1 NIM微服务,用于专业AI代理。

DeepSeek推翻全球 人工智能 市场格局

  DeepSeek的爆火,推翻了全球 人工智能 市场的格局。北京一位公募人士表示,DeepSeek脱颖而出的原因有两个:一是资金优势。DeepSeek的母公司幻方量化是我国头部量化对冲基金,曾管理资金规模超1000亿元人民币。他们早在2021年便储蓄了超过1万块英伟达A100/H100 GPU集群,这为其提供了训练大模型所需的硬件基础。这种资源积累使DeepSeek能够绕过传统公司依赖外部融资的瓶颈,专注于长期研发。二是技术理想主义。梁文锋结业于浙江大学信息工程专业,早期通过量化交易积累资金。他坚信AI将改变世界,坚持将技术成果开源,以推动生态发展。这种非功利性的理念吸引了众多优秀年轻人才加入。

  从投资机会的视角看,多位业内人士表示,DeepSeek的AI大模型有望大幅下降AI应用成本,加速对相关产业的赋能进程,利好 机器人 、计算机、传媒等下游AI应用落地。另外,DeepSeek高性价比的特征不仅冲击了美国AI大模型的垄断地位,而且对国内自主可控的信心和情绪具有明显的提振作用,建议关注TMT、高端制造等科技成长板块。

   浙商证券 研报表示,DeepSeek大模型具有推翻性的成本优势,可能使得传统以“高投入、高算力”为核心的研发路径受到一定冲击,市场对算力硬件需求持续高增长的期待或被动摇,从而对现有AI上游硬件企业的业绩预期和估值造成不良影响。如果DeepSeek“花小钱办大事”的创新研发模式得到持续验证,未来则可能需要警惕美股隐含风险偏好向下均值回归的压力,和英伟达等科技巨头企业盈利和估值下修的可能,届时美股波动或会加大。

   华泰证券 研报指出,DeepSeek从V3到R1,将进一步推动全行业大模型的提升,更快地追赶GPT-4o和GPT-o1;同时成本的下降,有助于AI应用和AI终端的普及。未来行业竞争将进入“产品能力竞争”,巨头的流量优势将进一步凸显。AI全球竞争时代来临,看好以DeepSeek为代表的中国大模型的崛起,尤其看好AI应用和AI终端的落地。预期未来推理成本仍将明显增长,全球AI竞争环境下,国产替代是算力增长核心。

繁体中文