点击蓝字,关注我们
2023 年,Nvidia 在数据中心 GPU 出货量中占据 98% 的市场份额,与 2022 年的市场份额相似。
TechInsights 的数据显示,如果包括 AMD 和英特尔在内,2023 年数据中心 GPU 的总出货量将达到 385 万台,高于 2022 年的约 267 万台。
Nvidia 还占据了数据中心 GPU 收入市场的 98% 的收入份额,达到 362 亿美元,是 2022 年 109 亿美元增长的三倍多。
TechInsights 分析师詹姆斯桑德斯 (James Sanders) 表示,Nvidia GPU 的 AI 替代品正在以谷歌 TPU、AMD 的 GPU、英特尔的 AI 芯片甚至 CPU 的形式出现。
桑德斯表示,人工智能硬件还不足以匹配人工智能软件的快速进步。
桑德斯表示:“我怀疑,由于人工智能的发展,它必须从英伟达实现多元化,这是不可避免的。”
Nvidia GPU 的短缺和成本帮助了 AMD 和英特尔,这两家公司在 2023 年凭借自己的 AI 芯片显示出了复苏的迹象。
TechInsights 的数据显示,2023 年 AMD 的出货量约为 50 万台,而英特尔则以 40 万台的出货量填补了剩余的空白。
AMD 数据中心 GPU 出货量今年有望上升。
AMD 的 MI300 系列 GPU 表现良好,已锁定微软、Meta 和 Oracle 的采购订单。在 4 月份的财报电话会议上,AMD 执行官 Lisa Su 表示,MI300 的销售额在不到两个季度内就达到了 10 亿美元。
根据Motley Fool 上的财报电话会议记录,苏姿丰表示:“我们现在预计数据中心 GPU 收入将在 2024 年超过 40 亿美元,高于我们 1 月份预计的 35 亿美元。”
在本月的台北国际电脑展上,AMD 还表示将每年发布新款 GPU,其中计划今年发布 MI325X,2025 年发布 MI350,2026 年发布 MI400。
AMD 正在遵循 Nvidia 每年推出一款 GPU 的蓝图。Nvidia 已经宣布了今年的 Blackwell GPU、2025 年的增量升级以及 2026 年和 2027 年新 Rubin 系列的新款 GPU。
英特尔的 GPU 未来仍是一个问号。该公司近停止了其 Ponte Vecchio GPU 的生产,并重新设计了其 Falcon Shore GPU,计划于 2025 年发布。该公司还提供 Flex 系列推理和媒体服务数据中心 GPU。
英特尔目前专注于 Gaudi AI 芯片,但这种芯片不像 GPU 那样灵活。生成式 AI 模型必须经过特殊编程才能在 Gaudi 芯片上运行,这需要付出很多努力。Nvidia 的 GPU 更适合运行各种模型。
据The Motley Fool 上的记录显示,英特尔执行官帕特·基辛格 (Pat Gelsinger) 在 4 月份的财报电话会议上表示:“Falcon Shores 将将 Gaudi 3 的出色收缩性能与完全可编程的架构相结合……随后英特尔将积极推出 Falcon Shores 产品” 。
Gaudi 3 让英特尔在 AI 芯片市场站稳了脚跟,英特尔目前预计“2024 年下半年的加速收入将超过 5 亿美元”,基辛格表示。
TechInsights 的桑德斯表示:“考虑到 Nvidia GPU 的容量和价格问题,GPU 之外也有很多动作,尤其是谷歌的 TPU。”
桑德斯表示:“谷歌的定制硅片工作比 AWS 和 AMD、Ampere 等商业硅片供应商的定制硅片工作产生的收入更高。”
谷歌已为其 Google Cloud 数据中心配备了自主研发的芯片,包括近发布的 Axion CPU 和第六代 TPU,后者是一款名为 Trillium 的 AI 芯片。TechInsights 的这项研究并未考虑这些新芯片。
桑德斯说:“由于某种奇怪的市场力量融合,谷歌终成为了技术上第三大数据中心硅片提供商(按收入计算)。”
谷歌于 2015 年推出 TPU,并逐渐占领市场份额。谷歌 TPU 的主要受众包括内部应用程序和 Google Cloud 用户。
“Argos 是他们为 YouTube 开发的视频编码器,考虑到 YouTube 每小时需要处理的所有视频。他们部署的每个 Argos 视频编码器 ASIC 都取代了 10 个 Xeon CPU。从功耗的角度来看,这是一个巨大的变化,”Sanders 说。
亚马逊拥有自己的 Graviton CPU 和名为 Trainium 和 Inferentia 的 AI 芯片,它尽可能地为客户降低 AI 芯片的价格。
TechInsights在研究报告中称,2023年,AWS向客户出租了相当于230万颗自主研发处理器的处理器,其中Graviton占比17%,超过了该平台上AMD芯片的使用量。
“即使销量很高,他们的总收入也不会很高。他们希望保持……与英特尔或 AMD 驱动的实例相比,相当稳定的 10% 到 20% 的折扣,”桑德斯说。
所有主要的云提供商和超大规模提供商都在开发自主研发的芯片,以取代英特尔和 AMD 生产的芯片。
Nvidia 的主导地位迫使云提供商分配由 Nvidia 控制的专用空间,而 Nvidia 将其 DGX 服务器和 CUDA 软件堆栈放置在这些空间中。
桑德斯表示:“云平台不会完全摆脱英特尔、AMD 或 Nvidia,因为客户对这些云平台中这些公司的芯片的需求永远存在。”
微软还推出了自己的芯片、Cobalt CPU 和 Maia AI 加速器,而谷歌于 2013 年开始自主研发芯片,以满足加速内部工作负载的需求,距今已有近 10 年。
云计算公司开发的内部芯片的量产取决于软件基础设施。谷歌的 LLM 是在其 TPU 上运行而开发的,这将确保芯片的量产快速进行。
微软的 AI 基础设施依赖 Nvidia GPU,目前正将其软件堆栈调整为自研芯片。AWS 主要将其芯片出租给部署自有软件堆栈的公司。