AI服务器行业分析:训练产品供不应求

作者:小编 更新时间2023-10-13 11:24:54 点击数:

ChatGPT大火后,各大科技企业纷纷发力AI大模型,作为通用的算力芯片开始供不应求。

大模型时代下,AI服务器市场激增,训练产品供不应求。

国际数据公司(IDC)最新发布《中国半年度加速计算市场(2023上半年)跟踪》报告显示,2023年上半年加速服务器市场规模达到31亿美元,同比2022年上半年增长54%。其中GPU服务器依然是主导地位,占据88%的市场份额,达到30亿美元。同时NPU、ASIC 和 FPGA等非GPU加速服务器以同比17%的增速占有了8%的市场份额,达到2亿美元。

从厂商销售额角度看,报告显示,2023年上半年,浪潮、新华三、宁畅位居前三,占据了70%以上的市场份额;从服务器出货台数角度看,浪潮、坤前、宁畅位居前三名,占有近60%的市场份额;从行业角度看,互联网依然是最大的采购行业,占整体加速服务器市场超过一半的份额,此外金融、电信和政府行业均有超过一倍以上的增长。

AI服务器需求暴增,机构指出,AI时代浪潮汹涌,海量数据催生庞大的算力需求,带动AI服务器需求量与日俱增,用于服务器内、外部数据传输等接口芯片也随之攀升。

中兴通讯:年内将发布支持大模型训练的最新AI服务器

中兴通讯在互动平台上称,公司作为国内主流的服务器厂商,一直积极应对AI领域的应用需求,及时推出满足各种AI应用场景的服务器产品。比如:(1)面向中小模型的训练和推理需求,今年1月公司推出的G5系列服务器,其中包括面向智能计算的异构算力服务器,内置10-20个异构计算智能加速引擎。(2)面向AI大模型训练和推理需求,公司将重点投入新一代智算中心基础设施产品,支持大模型训练和推理,包括高性能AI服务器、DPU等,其中,年内将发布支持大模型训练的最新AI服务器。

AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。AI服务器有助于为各种实时AI应用提供实时计算服务。

AI服务器行业分析

AI服务器主要有两种架构,一种是混合架构,可以将数据存储在本地,另一种是基于云平台的架构,使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储。

AI服务器成本主要来自CPU、GPU等芯片,占比50%以上

服务器由电源、CPU、内存、硬盘、风扇、光驱等几部分构成,芯片成本(CPU、GPU等)占比较高,在25%-70%不等;

AI服务器采用异构形式,按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合;目前GPU依然是实现数据中心加速的首选,其他非GPU芯片应用逐渐增多,IDC预计到2025年其他非GPU芯片占比超过20%;一般来说,ASIC的性能最好,但是可编程性和灵活性较弱;在训练或者通用情况下,GPU则是更好的选择。

中国在AI服务器水平位于世界前列。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优 势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。

据IDC数据,2022年中国AI服务器市场(按销售 额),浪潮以46.6%份额占据首位,新华三、宁畅分别以11%和9%占据第二、第三名。

以AI服务器浪潮NF5688M6为例,京东售价约105万人民币,包括2颗Intel IceLake处理器(根据cnBeta,约5.3万元/颗)和8颗NVIDIA A800 GPU(根据ZOL,约10.4万元/颗),CPU和GPU的价值量占比分别为10.10%和79.24%

中国AI服务器产业链上游为核心零部件及软件供应;中游为AI服务器厂商;下游为各类应用市场,包括互联网企业、云计算企业、数据中心服务商、政府部门、金融机构、医疗领域、电信运营商等。

在IDC中国AI基础架构分析师杜昀龙看来,目前本土芯片厂商的技术水平与国际先进水平比起来要相对落后,生态建设同样不够完善。不过,芯片领域的供需关系在逐渐发生变化,许多企业由原本的“国际采购”转向“本地采购”或“自研自用”,为我国芯片企业发展创造了有利条件。


Tag: AI服务器 AI产业 AI产品
首页 资讯 AI写作 我的