中国算力发展指数白皮书:AI服务器价格持续攀升,上涨趋势不减

作者:小编 更新时间2023-11-28 13:49:05 点击数:

受AI(人工智能)大模型发展热潮影响,市场算力需求大增,AI服务器作为算力基础设施之一,由于具备图形渲染和海量数据的并行运算等优势,能够快速准确地处理大量数据,市场价值逐渐凸显,近来市场需求大增,外加AI服务器核心零部件GPU(图像处理器、加速芯片)芯片持续紧缺、GPU价格不断上涨等,近期AI服务器价格大涨。

有企业透露,其去年6月购买的AI服务器不足一年价格涨了近20倍。同期,GPU价格也不断上涨,例如A100GPU市场单价已达15万,两个月前为10万元,涨幅50%,而A800价格涨幅相对更小,目前价格在9.5万元左右,上月价格为8.9万元左右。

AI服务器价格这几年一直变化较大,主要因其配置在不断提升,同时其核心零部件GPU全球主要厂家英伟达、AMD在GPU方面的产能有限,市场GPU供应持续紧缺,预计未来AI服务器价格仍将保持上涨趋势。

未来AI服务器价格仍将保持上涨趋势

值得一提的是,上游高端GPU芯片持续缺货等,一定程度上还影响了企业AI服务器出货量,进而影响到相关服务器上市公司短期业绩。不过,长远来看,AI服务器获业界一致看好,相关上市公司也正加码布局。

据了解,ChatGPT火热后,全球各大科技企业都在积极拥抱AIGC(生成式AI),纷纷发力AI大模型。据不完全统计,自3月16日百度率先公布“文心一言”以来,国内已有超过30项大模型产品亮相。

然而,AI大模型的实现,需要海量数据和强大算力来支撑训练和推理过程,华为预估2030年相比2020年,AI爆发带来的算力需求将增长500倍。

AI 服务器用于处理深度学习工作负载的海量数据,包括需要大内存容量、高带宽和整体系统内缓存一致性的训练和推断。相较于普通服务器,AI 服务器新增多张高性能加速器(绝大部分为 GPU),拥有更高的计算能力、更快的处理速度和更大的存储空间。

AI 模型从最早 2012 年(AlexNet)问世以来,深度和广度一直在逐级扩升。作为目前最大的语言模型之一,2020 年发布的 GPT-3 使用了 1750 亿个参数,是其前代的 100 多倍,微软和英伟达共同开发的 Megatron-Turing-NLG 模型参数量则达 5300 亿。

据中国信通院撰写的《中国算力发展指数白皮书》,过去 10 年用于 AI 训练模型的计算资源激增,AI 训练的计算复杂度每年猛增 10 倍,人工智能计算已成为主流的计算形态,全球智能算力规模(换算为 FP32)将由 2021 年 232EFlops 快速增长至 2030 年的 52.5ZFlops,期间 CAGR 超过 80%。

TrendForce 预计 2026 年全球 AI 服务器出货量约 20 万台。

TrendForce 表示,在 AIGC、自动驾驶、AloT、边缘计算等新兴应用带动下,诸多大型云厂商加大AI 相关基础设施建设,预计搭载 GPGPU(General Purpose GPU)的 AI 服务器 2022 年出货量仅占整体服务器市场的 1%,并有望在 2026 年增长至 20 万台,2022-2026 年 CAGR 为 10.8%。

据 TrendForce 统计,2022 年 AI 服务器采购占比以北美四大云厂商为主,微软、Google、Meta、AWS 合计贡献 66.2%,国内则以字节跳动投入最为积极,占比 6.2%。

不同类型的服务器成本结构存在差异,芯片成本占比随服务器性能提升而升高。

服务器本质是计算机,核心硬件包括 CPU、以 GPU 为代表的加速卡、内存、硬盘、网卡、电源、主板等。其中以 CPU 和 GPU 为代表的算力芯片是服务器主要成本项,占比随着服务器性能的提高而逐渐上升。

综合华经情报网和 ARK数据,芯片成本在普通服务器中约占总成本的 32%,而用于机器学习的服务器因通常搭载多卡高性能 GPU 导致芯片成本占比迅速提升至 83%。

AI 服务器和普通服务器之间的区别在于其硬件配置和使用方式。

AI 服务器用于处理深度学习工作负载的海量数据,包括需要大内存容量、高带宽和整体系统内缓存一致性的训练和推断。相较于普通服务器,AI 服务器新增多张高性能加速器(绝大部分为 GPU),拥有更高的计算能力、更快的处理速度和更大的存储空间,以支持高负载和复杂的计算任务。

随着 GPU 向 A100 向 H100 升级迭代,AI 服务器有望迎来量价齐升。

根据英伟达官网,相较于前代 A100,H100 综合计算性能提高 6 倍,得益于:1)采用第四代 Tensor Core 和具有 FP8 精度的 Transformer 引擎,持续优化大模型训练和推理表现;2)升级第四代 NVLink,提供高达 900 GB/s 的 GPU 与 GPU之间互连;3)更高的显存带宽。

该行认为,随着价格更高的 H100 在今年陆续出货,AI 服务器市场将在今年迎来持续量价齐升。

随着ChatGPT、百度文心一言等一系列大模型密集上线,AI大模型当下已经遍地开花。谷歌本周四发布AI语言模型PaLM 2与OpenAI旗下GPT-4等系统展开竞争,国内云从科技、引力传媒等多家A股上市公司亦宣布AI大模型产品最新进展。在“AI百模大战”背后,随之带动的算力需求开始呈“爆炸式”增长,一场“算力储备战”已暗潮汹涌,全球算力市场持续火热。

据悉,AI由数据、算法(即模型)和算力驱动,其中任意一方的发展会推动其他方面需求的增长。有分析认为,当下行业内虽然拥有更多的数据以及做了更多的AI模型研究,但算力的扩展速度却没有跟上。今年4月,OpenAI就因需求量过大而停止了ChatGPT Plus的销售。对此,东方证券研报认为,主要系计算资源供不应求。

根据数据预测,AI时代算力的增长已远远超过了摩尔定律每18个月翻番的速率,预计到2030年全球超算算力将达到0.2ZFLOPS,平均年增速超过34%。华为更是预测,未来10年人工智能算力需求将会增长500倍以上。那么,身处“智能革命”起点的当下,什么才是AI算力的最优解?国内“算力军备竞赛”又走到哪一步了?

众所周知,芯片能力直接影响着高算力训练效果和速度,相较于基于CPU芯片的通用算力,AI所需的智能算力则主要基于GPU、GPGPU及AISC等AI芯片所提供算力,用于人工智能的训练和推理。其中,GPU是一种专门用于处理图形、视频、游戏等高性能计算的硬件设备,凭借相较于其他硬件在算力方面的较大优势脱颖而出,同时随着英伟达A100、H100等型号产品的发布,前款产品在AI推理时吞吐量是CPU的249倍。GPU已成为当前AI算力的核心硬件。

中金公司研报表示,多GPU互联能力加强可以提高并行计算能力,因而算力提升对GPU数量的要求日益提高。随着单GPU的计算能力越来越难以应对深度学习对算力的需求,英伟达已经开始用多个GPU去解决问题。对此,业内分析认为,高端GPU的数量基本决定了一个厂商能够练多大的模型,后期将成为业内判断企业大模型能力的重要指标。

据TrendForce数据显示,如果以英伟达 A100 显卡的处理能力计算,GPT-3.5大模型需要2万块GPU来处理训练数据。亦有业内公认看法,做好AI大模型的算力门槛是1万枚A100芯片。

目前,全球GPU市场主要由英伟达、英特尔和AMD三家巨头垄断,去年Q4独立GPU份额分别为85%、6%、9%。其中,人工智能、云端计算和独立GPU主要为英伟达主导,A100和H100最高浮点算力分别实现19.5 TFLOPS 和67 TFLOPS。

相较于此,我国国产GPU尚处萌芽期,与国际厂商差距更大。但随着高端GPU的出口限令,针对中国市场推出的特供版A800也已涨10万元的高价,国内GPU市场需求紧迫。在此情形下国产化迫在眉睫,国产GPU厂商近几年也不断涌现,目前国内自研GPU的领军企业主要是寒武纪、景嘉微、华为昇腾等。其中,景嘉微是国内首家成功研制国产GPU芯片并实现大规模工程应用的企业。行业内专家称,主打产品JH920的性能与英伟达2016年发布的GTX 1050相仿,在中高端领域及硬核的算力需求仍存在较长的追赶道路。

对于整个算力市场,业内人士认为,目前烧GPU是最为现实的方案,尤其从国内GPU厂商的角度来看,国产GPU高端化薄弱,只有使更多低端的GPU去追赶和堆叠,通过优化和协调来协同作用,再去组合模拟优化的路径。


Tag: AI服务器
首页 资讯 AI写作 我的