AI芯片卖爆了!英伟达盘后暴涨近30% 二季度业绩预计更“惊喜”?

频道:最新资讯 日期: 浏览:60

在持续已久的“AI热潮”中,各家争相推出的大模型、AI应用,都进一步推升了对算力狂热的需求,这也让芯片巨头英伟达赚麻了。北京时间周四清晨,全球AI算力龙头英伟达发布2024财年第一财季(下称一季报)的财报显示,总收入明显高于预期,本季度的收入指引远高于市场预期。而令市场目瞪口呆的亮眼数据也引发盘后股价暴涨。

截至发稿,英伟达股价在盘后涨25.26%,一度大涨近30%,报382.5美元,市值暴涨1.34万亿元人民币,而公司此前的历史新高也只有346美元。英伟达市值目前已经超过7552亿美元,高于特斯拉(5797亿美元)。

业绩电话会上,英伟达向分析师表示,众多云公司竞相部署AI芯片。个人电脑(PC)的图形处理单元(GPU)终端需求一季度“稳固”。业绩增长正来自数据中心业务。公司锁定了数据中心芯片的大幅增长,计划下半年大幅增加供应。

作为一站式解决方案的提供商,英伟达提供可以帮助AI产品训练大量文本、图像和视频的GPU,在AI大模型竞赛中掌握着供应算力的“命门”,由此成为今年AI概念热潮中的一大赢家。截至本周三收盘,股价年初以来累涨一倍以上。

业内预计,随着人工智能大模型的训练需求不断增长,还将推动英伟达的AI芯片销量。

数据中心业务营收42.8亿美元创纪录

美东时间5月24日周三美股盘后,英伟达公布,在截至公历2023年4月30日的2024财年第一财季:一季度营收71.9亿美元,分析师预期65.2亿美元;预计第二季度营收110亿美元上下浮动2%,分析师预期71.8亿美元;一季度调整后每股收益为1.09美元,分析师预期0.92美元;一季度游戏营收22.4亿美元,分析师预期19.8亿美元;一季度数据中心营收42.8亿美元,分析师预期39.1亿美元;一季度毛利润率66.8%,分析师预期66.6%。

作为英伟达营收两大支柱的另外一块,一季报游戏业务实现营收22.4亿美元,同比下降38%,但较前一季度回升22%。汽车业务方面,英伟达在第一财季录得2.96亿美元营收,环比上升1%,同样也是历史新高。

英伟达称,数据中心收入激增主要是由于,对使用基于Hopper和Ampere架构GPU的生成式AI和大语言模型的需求不断增长。游戏业务下滑源于,宏观经济增长放缓造成的需求疲软,以及渠道库存的正常化道指出货下降。

令市场大感震惊的是,英伟达对第二财季给出了一份令人难以置信的指引。英伟达预计,本财年第二财季、即二季度,营收为110亿美元,正负浮动2%,相当于指引范围在107.8亿到112.2亿美元之间。这意味着,二季度将扭转收入连续三个季度同比下滑的势头。

以110亿美元计算,英伟达预期二季度营收将同比增长约32.7%,较分析师预期高53.2%。分析师预计二季度营收只有71.8亿美元,同比下降13.4%。

英伟达还预计,二季度非GAAP口径下的调整后毛利率为70%、上下浮动50个基点,即69.5%至70.5%,高于分析师预期的66.9%;二季度的营业费用料将为19亿美元,分析师预期18.2亿美元。

英伟达CEO黄仁勋在发布财报时提到了有关AI应用的广阔前景,称计算机行业正在同时经历两个转变——加速计算和生成式AI,企业竞相将生成式AI应用到各个产品、服务和业务流程中,全球万亿美元规模的已安装数据中心将从通用计算转变到加速计算。

英伟达AI芯片曾被炒至4万美元以上

据界面新闻4月17日报道,作为整个AI大潮的算力基础,英伟达的A100和H100 GPU(图形处理器)已成为抢手货,特别是旗舰级别的新款H100在海外的价格也遭到炒作。

Keen Technologies CEO、著名游戏开发者约翰·卡马克最先注意到这一现象,他在推特上称,英伟达AI旗舰芯片H100的售价在多个商铺超过了4万美元。当时,海外电商平台eBay上至少有6家店铺出售H100。通常而言,英伟达的A100、H100等AI芯片以企业出货为主,较少在公开市场零售,存在一定炒作空间。

在算力需求激增的背景下,英伟达的GPU几乎成为了唯一的“硬通货”。马斯克此前也表示:“看起来身边所有的人都在买GPU。”马斯克自己也被曝向英伟达购买了数千个为人工智能提供算力支撑的GPU芯片,这一消息也推动英伟达股价上涨。

开发人员正在使用H100芯片构建更强大的大型语言模型(LLM)。训练AI模型,尤其是像GPT这样的大型模型,通常需要数百个高端的英伟达AI芯片协同工作。例如,为了打造ChatGPT,微软斥资数亿美元购买了数万颗英伟达A100芯片。

今年早些时候,英伟达还宣布推出新服务,允许一些企业以每月37000美元的价格租用搭载其人工智能芯片A100的超级计算机DGX。

英伟达表示,H100是第一款针对特定AI架构进行优化的芯片,该架构支撑着AI的众多最新进展(transformers)。行业专家表示,要构建比目前可用的模型更大、数据需求量更大的模型,将需要更强大的芯片。

H100芯片于去年年初发布,在去年9月量产。与上一代A100芯片相比,H100包括了大量的技术更新和升级,所有设计均达到新的性能和效率水平。Hopper包含800亿个晶体管,它是使用定制的台积电N4(4纳米)工艺制造而成的。此前,A100的晶体管数量为540亿个。

目前,H100芯片未向中国市场供应,而是使用替代产品A800和H800,这也是目前大部分中国开发者在开发大型语言模型时使用的芯片。

据不完全统计,目前中国至少有30家公司和机构正在训练人工智能大模型。除了已经公布相关聊天机器人产品的百度、阿里巴巴、商汤等公司之外,科大讯飞正式对外发布讯飞星火认知大模型。这也意味着,未来企业对于人工智能服务器的需求和网络基础设施支出将会继续增加。

相关文章

网友留言

我要评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
关闭广告
关闭广告