首页 行业报告下载文章正文

算力报告:AI服务器催化HBM需求爆发(27页)

行业报告下载 2024年03月13日 08:46 管理员

目前主流显卡使用的显存为GDDR5,但在应用中仍存在痛点:1)消耗大量PCB面积:GPU核心周围分布12/16颗 GDDR5芯片,而GDDR芯片尺寸无法继续缩小,占据更大空间,同时也需要更大的电压调节模块,2)GDDR5的功 耗提升达到了对GPU性能提升产生负面影响的拐点:由于平台和设备需要在逻辑芯片与DRAM之间的实现功耗平 衡,而当前GDDR进入功能/性能曲线的低效区,不断增长的内存功耗在未来会阻碍GPU性能提升。HBM因其高带宽、低功耗、小体积等特性,广泛应用于AI服务器场景中。HBM的应用主要集中在高性能服务器 ,最早落地于2016年的NVP100GPU(HBM2)中,后于2017年应用在V100(HBM2)、于2020年应用在A100(HBM2 )、于2022年应用在H100(HBM2e/HBM3),最新一代HBM3e搭载于英伟达2023年发布的H200,为服务器提供更 快速度及更高容量。AI服务器出货量增长催化HBM需求爆发,经测算,HBM 2025年市场规模将超过150亿美元,增速超50%。全球服 务器增虽长较为稳健,但随着大数据模型训练需求AI服务器出货量呈爆发式增长,2022年AI服务器出货量86万 台,渗透率不断提升,AI服务器在整体服务器占比10%左右,预计2026年AI服务器出货量将超过200万台,预计 年复合增速29%。同时,主流AI服务器HBM容量需求从40GB向80GB、141GB升级,带动平均HBM容量提升。我们测 算,2025年HBM全球市场规模将达到150亿美元,同比增速68%。

算力报告:AI服务器催化HBM需求爆发(27页)

文件下载
资源名称:算力报告:AI服务器催化HBM需求爆发(27页)


标签: 云计算行业报告

并购家 关于我们   意见反馈   免责声明 网站地图 京ICP备12009579号-9

分享

复制链接

ipoipocn@163.com

发送邮件
电子邮件为本站唯一联系方式