首页 行业报告下载文章正文

AI服务器行业报告:大模型算力需求驱动AI服务器行业(28页)

行业报告下载 2023年05月15日 06:33 管理员

AI服务器按应用场景可分为训练和推理两种,2021年中国AI服务器推理负载占比约55.5%,未来有望持续提高; 训练对芯片算力要求更高,推理对算力的要求偏低;AI服务器采用异构形式,按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合; 目前GPU依然是实现数据中心加速的首选,其他非GPU芯片应用逐渐增多,IDC预计到2025年其他非GPU芯片占比超过20%; 一般来说,ASIC的性能最好,但是可编程性和灵活性较弱;在训练或者通用情况下,GPU则是更好的选择。服务器由电源、CPU、内存、硬盘、风扇、光驱等几部分构成,芯片成本(CPU、GPU等)占比较高,在25%-70%不等; 

以AI服务器浪潮NF5688M6为例,京东售价约105万人民币,包括2颗Intel Ice Lake处理器(根据cnBeta,约5.3万元/颗) 和8颗NVIDIA A800 GPU(根据ZOL,约10.4万元/颗),CPU和GPU的价值量占比分别为10.10%和79.24%。参数量与算力需求呈正比,据ARK Invest预测,GPT-4参数量最高达15000亿个,则GPT-4算力需求最高可达31271 PFlop/s-day; 与此同时,国内外厂商加速布局大模型,其参数量均达到千亿级别,同步带动算力需求爆发式增长;据IDC预测,2023年AI服务器训练需求占比达41.5%,随着大模型的应用,该比例在2025年将降低至39.2%; 将GPT-4的推算结果作为训练需求,进一步推算2023/2025年推理需求最高达44081/48502 PFlop/s-day。

AI服务器行业报告:大模型算力需求驱动AI服务器行业(28页)

文件下载
资源名称:AI服务器行业报告:大模型算力需求驱动AI服务器行业(28页)


标签: 云计算行业报告

并购家 关于我们   意见反馈   免责声明 网站地图 京ICP备12009579号-9

分享

复制链接

ipoipocn@163.com

发送邮件
电子邮件为本站唯一联系方式