券商观点|推理微服务NIM:英伟达的The next big thing
7月25日,东方证券发布一篇计算机行业的研究报告,报告指出,英伟达的The next big thing。
报告具体内容如下:
Scalinglaw持续有效,大模型的迭代有望持续带来大量算力需求,英伟达业绩再创新高,占全球AI芯片市场九成。近年来,生成式AI需求快速增长,推动AI芯片市场规模迅速扩大。据Gartner预测,2025年全球AI芯片收入总额有望达到919.55亿美元。作为人工智能领域的领导者,英伟达(NVIDIA)在全球人工智能芯片市场的市占率达到了九成。FY25Q1,英伟达业绩继续超预期,营收、净利润创新高。英伟达在大模型的开发训练方面有着深厚积累,使得其在这波AI浪潮中成为“卖铲子”的龙头企业。公司数据中心业务持续增长,FY25Q1,英伟达数据中心业务实现营收226亿美元,同比增长427%,数据中心业务占到所有业务收入的87%。 英伟达在训练算力领域的绝对优势,得益于其硬件的持续迭代和其CUDA生态的持续完善。面向模型开发者,英伟达能够提供以AI芯片、网络为基础的性能卓越的硬件,以及CUDA为主的完善的软件生态。多年来,英伟达AI芯片不断迭代,且算力呈指数增长,在八年间算力增长了1000倍。英伟达的加速计算平台性能突出,生态环境优异。自2006年面世以来,CUDA持续更新迭代新版本,功能持续优化,性能持续提升,相较于ROCm等生态也更加成熟稳定,成为英伟达最大的护城河之一。 推理占比逐步提升,AI应用有望迎来爆发。据英伟达2024财年Q4的电话会披露,公司全年的数据中心收入里已经有40%来自推理业务,未来推理端算力需求将占据主导地位。类比移动互联网时代,AI应用还需要一定时间探索产品形态,2B应用会是最先突破的方向。随着AI推理成本下降和模型性能提升,根据云计算市场的发展经验,我们认为最接近最终客户的应用层肯定是价值最大的环节。长期看,AI应用的市场规模广阔。
英伟达发布NIM微服务,加速AI企业端部署。NIM的全称为NvidiaInferenceMicroservice,即英伟达推理微服务,是NvidiaAIEnterprise的一部分,可以帮助客户快速部署产品级AI大模型应用。NIM实际上是一种容器化的部署工具,包含了行业标准API、特定领域的代码、优化的推理引擎以及对于自定义模型的支持。相比于直接开发部署,NIM的部署时间大幅缩短。目前已有数百家生态系统合作伙伴嵌入了NIM。除了基础的AI模型都和NIM进行了适配加速外,一些行业巨头企业也已经开始使用NIM来加强自身的生成式AI应用,涉及制造业、医疗、金融服务、零售、客户服务等领域。
NIM的推出为英伟达在企业软件服务领域的发展再次加码。英伟达通过将AI领域的开发和部署软件微服务化,加速企业的生成式AI应用开发与部署。NIM是数据驱动的推理核心,NVAIE则包含了整个AI开发全链条工具,如RAG、数据清洗、抗压测试等。通过提前针对模型、CUDA等做好优化,让企业用户无需深入了解技术,也能做出满足企业需求的AI应用,让用户的注意力更加聚焦于如何用AI去解决业务场景中的问题,而不是去担心硬件和模型。
我们认为,从今年开始AI在企业端的应用有望加速落地,类似NIM这样的软件平台推出有望进一步推动AI应用发展,英伟达相关的合作方有望受益,建议关注亚康股份(301085)、神州数码(000034)、浪潮信息(000977)等。
风险提示
技术落地不及预期;政策监管风险
声明:本文引用第三方机构发布报告信息源,并不保证数据的实时性、准确性和完整性,数据仅供参考,据此交易,风险自担。
0人