微信号
17070522355
来源:中国经营报
本报记者 李玉洋 上海报道
近一周时间来,英伟达(NVIDIA)妥妥的是科技圈的焦点。
在今年的台北电脑展(COMPUTEX 2023)大会上,英伟达CEO黄仁勋向全世界宣布:“我们已到达生成式AI引爆点。从此,全世界的每个角落,都会有计算需求。”在他看来,CPU已经是过去式,而GPU才是未来,让后者取代前者的引爆点则是AIGC——生成式人工智能。
从卖游戏显卡到AI芯片供应商,牢牢掌握“计算”底牌的英伟达在COMPUTEX 2023又亮出新的算力“杀器”——生成式AI引擎“NVIDIA DGX GH200”超级芯片(被正式宣布已经全面投产),它在系统内可提供高达900GB/s的总数据吞吐速度(带宽),是当前行业标准PCIe Gen5接口速度的7倍。
继COMPUTEX 2023上一系列重磅发布后,英伟达的股价再创新高:北京时间5月30日21点30分(美国东部时间9点30分),英伟达股价开盘涨逾4%,总市值突破万亿美元大关,由此,英伟达成为全球第1家市值突破万亿美元的芯片公司、第7家市值超过1万亿美元的美国公司,并成为当前市值仅次于苹果、微软、Alphabet、亚马逊的美股第5大科技股。
来自彭博社的消息显示,黄仁勋将计划前往中国,会见腾讯、字节跳动等企业高管。此前,黄仁勋接受英国《金融时报》采访时表示,华盛顿和北京之间不断升级的芯片斗争可能会对美国的科技行业造成“巨大损失”,中国是科技行业一个非常重要的市场。
AI大模型的热潮,引发英伟达高端GPU供不应求。与此同时,微软、亚马逊、Meta等公司也在自研AI芯片,这能否撼动英伟达在AI芯片上的霸主地位?
对此,国企芯片系统行业人士吴迪(化名)对《中国经营报》记者表示:“目前来看,虽然微软、亚马逊等公司在自研AI芯片方面有所进展,但是英伟达在高端GPU方面的技术和市场优势仍然较为明显,因此短期内难以被撼动。但随着AI技术的不断发展和市场的竞争日益激烈,未来的市场格局仍然存在不确定性。”
GPU:“算力革命”的硬通货
目前,主流AI厂商都进入了“千亿参数时代”,多采用了英伟达的GPU。据统计,英伟达当前在售的用于大模型训练的GPU至少有9款型号,其中V100、A800、A100及H100为高性能GPU。
昆仑万维集团CEO方汉此前表示:“超过千亿级别的大模型,它的训练大概需要1000~2000张A100的卡,没有2000张A100的卡,实验都做不了。”而此轮AI“军备竞赛”也让上述显卡的价格一路高涨。其中,A100此前售价在1.5万美元(约合人民币10.35万元),但目前在一些平台上,此款显卡价格已上涨到15万元左右。
不过,即使价格上涨,目前市面上几乎“一卡难求”。一位半导体业内人士曾对本报记者表示,客户对英伟达A100/H100芯片需求强劲,后者订单能见度已至2024年,更紧急向代工厂台积电追单。
特斯拉CEO埃隆·马斯克在日前的《华尔街日报》活动中称,目前GPU“比药物更难获得”,“计算成本已经成为天文数字,最低赌注必须是要拿着2.5亿美元的服务器硬件以构建生成式AI系统”。
特别需要指出的是,英伟达2022年发布的高端GPU H100,已成为全球领先的科技公司和初创企业之间的AI军备竞赛所争相竞逐的对象,单块价格在eBay上已超4万美元。面对微软、亚马逊、谷歌、Meta等客户对自家产品的强劲需求,英伟达预测截至7月底的第二财季的销售额将达到110亿美元,比华尔街此前的估计高出50%以上。
可以这么说,英伟达的GPU几乎成为当下算力需求激增时期唯一的硬通货。而据台媒日前报道,英伟达A100/A800/H100的系统代工为纬创及鸿海,目前订单约各半,不过下半年代工比重将有所调整,H100目前鸿海约占六成,下半年将拉升至九成,而A100则是纬创为主。
众所周知,英伟达常年和台积电合作,后者为其代工GPU。什么叫系统代工?对此,国内一家GPU创业公司人士对记者表示:“英伟达是设计公司,他们设计出芯片之后,需要找台积电做芯片,芯片做好后,则需要做外面的板卡、散热器等外观件,这些就是系统代工。简单来说,系统代工就是做芯片之外的外观件代工。”
“目前,国内AI芯片企业在芯片流片和封装领域主要依靠台积电和三星代工。”前述国内GPU创业公司人士表示,在AIGC大模型的热潮下,国产AI芯片会有新一轮发展的热潮,这对下游代工来说会有额外的潜在市场发展机会。吴迪也认为,AI芯片市场的变化,也会影响到下游代工产业的市场需求和产业链格局。
数据中心:GPU取代CPU
近日黄仁勋在接受采访时表示,数据中心将不再需要数百万个CPU,反而会需要数百万个GPU,数据中心GPU芯片需求可能会变成一个万亿美元的巨型市场。
招商证券一份研报也指出,从通用服务器到AI服务器,一个最显著的变化就是GPU取代了CPU成为整机最核心的运算单元以及价值量占比最大的部分,传统服务器通常至多配备4个CPU+相应内存和硬盘,而在AI服务器中,通常是2颗CPU+8颗GPU。
研究机构TrendForce集邦咨询预估2023年AI服务器出货量近120万台,年增38.4%,占整体服务器出货量近9%,至2026年将占15%,而AI芯片2023年出货量将增长46%。
TrendForce集邦咨询认为,英伟达GPU为AI服务器市场搭载主流,市占率为60%~70%,其次为云计算厂商自主研发的ASIC芯片,市占率逾20%。TrendForce集邦咨询分析师刘家豪表示,英伟达市占率高的主要有以下原因,首先,目前不论美系或中系云计算厂商,除了采购原有的英伟达的A100与A800外,下半年也将陆续导入H100与H800。
“其次,高端GPU A100及H100的高获利模式也是关键,由于英伟达旗下产品在AI服务器市场已拥有主导权的优势,H100本身的价差也依据买方采购规模,会产生近5000美元的差异。”刘家豪认为,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域的开发市场,预估今年搭载A100及H100的AI服务器出货量年增长逾五成。
根据英伟达最新的2024财年第一季度财报(截至4月30日),其一季度获得收入71.9亿美元,净利润20.4亿美元,同比上涨26%。在各项业务中,英伟达的数据中心业务表现最为亮眼,而该业务收入激增主要是由于,对使用基于Hopper和Ampere架构GPU的生成式AI和大语言模型的需求不断增长。
在宣布已量产DGX GH200超级芯片的同时,黄仁勋还对外介绍了人工智能超算产品DGX GH200预计将于今年年底问世,英伟达暂未公布价格,而谷歌云、Meta与微软将是首批用户。
记者注意到,微软、Meta、谷歌这些科技巨头尽管在采购英伟达的GPU,但也在研发自己的AI芯片。比如,近期Meta官宣了第一代AI推理定制芯片MTIA v1,这是一款ASIC芯片,通过编程,该芯片能同时执行一项或多项任务。
巨头纷纷自研AI芯片,会否撼动英伟达在该领域的霸主地位?对此,前述国内GPU创业公司人士指出:“AI芯片的发展除了硬件之外,软件也是很重要的决定要素,英伟达拥有CUDA生态系统,在软件上拥有很强的技术壁垒,是其重大优势,也是其他厂商短时间很难突破的地方。”
不过,他也指出,尽管目前看来英伟达优势很大,但也存在很大不确定性。随着科技的进步,谁都难以预料是否有新秀干翻老师傅,就比如智能手机时代,苹果完全颠覆了由诺基亚统治的市场格局。
微信号
17070522355