英伟达成大模型浪潮最大赢家 全球AI算力支出持续扩张
当地时间8月23日美股盘后,英伟达发布一份格外亮眼的二季度财报,大超市场预期,此轮大模型浪潮使在AI算力基础设施领域长久布局的英伟达实现“赢者通吃”。
业内人士表示,英伟达的业绩和前景预期预示着未来几年人工智能支出的浪潮即将到来。虽然全球算力领域暂没有能够与英伟达匹敌的竞争对手,但围绕英伟达的AI算力产业链将在这轮大势中“分一杯羹”,A股市场PCB(印制电路板)、HBM(高带宽内存)存储器、服务器散热、光模块等产业链相关领域或将受益。
AI算力带来业绩激增
英伟达二季度财报业绩大超市场预期。财报显示,二季度(截至2023年7月30日),公司实现营收135.07亿美元,同比大幅增长101%,环比增长88%;实现净利61.88亿美元,同比大增843%,环比增长203%。摊薄每股收益(GAAP)为2.48美元,同比增长854%,环比增长202%。摊薄每股收益(非GAAP)为2.70美元,同比增长429%,环比增长148%。
此前市场预期的英伟达二季度营收为110亿美元,同比增长64%,每股收益将增长305%至2.07美元。
数据中心营收创历史新高。财报显示,二季度英伟达数据中心营收为103.2亿美元,同比大增171%,环比大增141%,分析师预期为79.8亿美元。
英伟达创始人兼首席执行官黄仁勋表示,通过Mellanox网络和交换机技术连接,以及运行CUDA人工智能软件栈,全球各地的公司正在从通用计算向加速计算和生成式人工智能转型,英伟达GPU构成了生成式AI的计算基础设施。二季度,主要云服务提供商宣布推出大规模采用英伟达H100的AI基础设施,领先的企业IT系统和软件提供商宣布建立合作伙伴关系,将英伟达AI引入各个行业。
全球AI服务商离不开英伟达的算力服务器支持。IDC数据显示,到2021年,英伟达占据全球91.4%的企业GPU市场份额,排名第二的AMD市场份额为8.5%。
展望三季度,英伟达在财报中称,预计三季度收入为160亿美元,上下浮动2%。
这份来自海外的亮眼财报为A股市场注入“兴奋剂”。8月24日,AI算力概念板块多家公司股价走强。截至8月24日收盘,紫光国微涨停,中贝通信接近涨停,工业富联、网宿科技、浪潮信息、中际旭创等跟涨。
算力支出延续
在AI大模型浪潮驱动下,全球主要云服务厂商和人工智能企业纷纷加码生成式人工智能,生成式人工智能、多模态大模型以及AI云计算技术在智能对话、数据抓取、行业定制解决方案等应用场景中加速落地,人工智能产业中下游领域寻找AI算力的需求强烈。
英伟达称,二季度,公司与亚马逊、微软云以及区域云服务提供商共同推出基于H100 Tensor Core GPU的云实例。日本风险投资集团软银基于GH200创建用于生成式人工智能和5G/6G应用的平台。
国内方面,百度、腾讯、阿里、华为等科技巨头也在搭建面向大模型训练的算力服务平台。今年4月,腾讯云发布面向大模型训练的新一代高性能计算集群。百度集团日前发布二季度财报时表示,将继续坚定投资AI,在未来几个季度加大对大语言模型和生成式人工智能的投入。
业内人士称,OpenAI的ChatGPT和其他服务商的AI应用都需要用英伟达A100、H100、H800等AI芯片,来支持其训练和运行。
作为“一家独大”的AI算力全球提供商,英伟达当前强劲的业绩增势和未来预期表明了其GPU和数据中心算力基础设施已成为生成式AI蓬勃发展的主要引擎。Wedbush分析师Daniel Ives表示,英伟达的业绩和前景预期是科技行业的历史性时刻,预示着未来几年人工智能支出浪潮即将到来。半导体制造龙头台积电上个月在财报电话会上预测,未来五年,市场对AI服务器芯片的需求将每年增长近50%。
IDC最新数据显示,2022年全球人工智能IT总投资规模为1288亿美元,2027年预计增至4236亿美元,五年复合增长率(CAGR)约为26.9%。
面对AI算力市场旺盛的需求,英伟达高管在业绩电话会中表示,公司已大幅度增加产品供应能力。用于复杂AI和HPC工作负载的NVIDIA GH200 Grace Hopper超级芯片在二季度发货,采用HBM3e内存的第二代版本预计将于2024年第二季度发货。“预计从明年开始,每个季度的GPU供应量都将增加。”英伟达方面称。
产业链相关领域受益
在GPU算力需求强烈刺激下,正在缩减开支的先进封装和存储器等半导体制造厂商力求提升产能,加快产品供应。台积电日前表示,计划将CoWoS先进封装的产能增加一倍,但至少要到2024年底,这一瓶颈才能得到解决。合计掌控着全球90%HBM存储器市场的两家企业SK海力士和三星均表态,计划2024将HBM芯片产量提高一倍,并为了更好地应对HBM需求不断增长,减少其他类别存储芯片的投资。
我国PCB、光模块、芯片散热等核心零部件及软件企业深度参与AI服务器产业链。PCB方面,鹏鼎控股8月24日在投资者互动平台表示,AI算力需求预计将带来相关PCB产品需求的快速增长。为应对未来AI服务器开发需求,公司在技术上持续提升厚板HDI能力,目前主力量产机种板层由10L-12L升级至16L-20L水平,并已切入全球知名服务器客户供应链。胜宏科技回复投资者称,公司现已推出高阶HDI、高频高速PCB等多款AI服务器相关产品,可满足客户对高端PCB产品的需求。
光模块方面,中际旭创近日披露的投资者调研活动信息显示,随着AI客户对算力和带宽需求不断深化,预计1.6T光模块会在2025年部署在AI算力集群上。此外,800G光模块明后年上量的确定性较强。
国金证券表示,AI的发展将重塑电子半导体基础设施,海量数据收集、清洗、计算、训练以及传输需求,将带来算力和网络的迭代升级,利好AI数据中心及边缘高速运算大量使用的CPU/GPU/FPGA/ASIC,HBM存储器,3D NAND,DDR5,以太网PHY芯片,电源管理芯片,PCB/CCL以及光芯片。