AIGC 驱动 IDC 朝高密度化发展,政策严控 PUE,液冷渗透率有望加速提升 AI 带来高算力需求,叠加双碳时代严控 PUE,在数据中心高密度化时...
2024-03-22 49 云计算行业报告
大模型推动算力需求增长。自2022年OpenAi发布的ChatGPT将大型语言生成模型和AI推向新高度以来,全球各大科技巨头纷纷拥 抱AIGC(AI-Generated Content,人工智能生成内容)。大模型通常包含数亿级的参数,需要消耗大量算力。据OpenAI团队发表 于2020年的论文《Language Models are Few-Shot Learners》,训练一次1746亿参数的GPT-3模型需要的算力约为3640 PFlop/s-day。AI大模型可以用于训练和推理,主要用在云端(数据中心侧)和边缘侧(终端侧)。 AI服务器作为算力的发动机,算力需求的增长将迎来AI服务器需求的快速增长。据IDC统计,2023年全球AI服务器市场规模预计为 211亿美元,2025年将达到达317.9亿美元,2023-2025年CAGR为22.7%。采购量方面,根据TrendForce的统计,截至2022年, 北美四大云端服务提供商Microsoft、Google、Meta、AWS在全球AI服务器采购中的总份额达到约66%, Microsoft和Google分 别占有全球19%以及17%的份额。服务器整机出货量放缓,AI服务器出货量稳步上升。2022年全球服务器出货量增长4.8%,达到约1360万台。然而,预计到2023年, 全年增长将放缓至1.5%。服务器整机出货量放缓的主要原因是大型云服务提供商的整体服务器购买量下降,集体转向高价AI服务器。 根据TrendForce数据,2023年AI服务器出货量逾达120万台,占据服务器总出货量的近9%,年增长达38.4%。预计2026年,AI服 务器出货量为237万台,占比达15%,复合年增长率预计保持25%。 AI服务器整机逻辑结构可确保各组件高效运行。如浪潮的NF5688M6型号AI服务器,其逻辑结构采用NVIDIA NVLink互联架构,可 基于硬件拓扑,实现 GPU:IB:NVMe=1:1:1的配比。此外,GPU之间交互效率高,可直接进行数据通信速率为400GB/s的P2P 交互。最后通过UPI 总线互联设计,该型号AI服务器可为深度学习业务场景提供高效计算性能。
标签: 云计算行业报告
相关文章
AIGC 驱动 IDC 朝高密度化发展,政策严控 PUE,液冷渗透率有望加速提升 AI 带来高算力需求,叠加双碳时代严控 PUE,在数据中心高密度化时...
2024-03-22 49 云计算行业报告
2021年后投融资持续降温,融资事件数量回归个位数。同期,2022年隐私计算市场规模约12.5亿元,主要由基础产品服务采购贡献;而受市场趋于冷静的影响...
2024-03-15 40 云计算行业报告
目前主流显卡使用的显存为GDDR5,但在应用中仍存在痛点:1)消耗大量PCB面积:GPU核心周围分布12/16颗 GDDR5芯片,而GDDR芯片尺寸无...
2024-03-13 62 云计算行业报告
鸿蒙原生应用全面启动以来,首批 200 多个鸿蒙原生应用已在加速开 发,覆盖便捷生活、出行文旅、金融便利、社交资讯、生产力工 具、影音娱乐、游戏等领域...
2024-03-13 39 云计算行业报告
全球超算中心与量子计算机的融合正在加速推进。各种类型和规模的超算中心,无论是大型的 国家级研究机构还是小型的企业级实验室,都在积极探索与量子计算机的集...
2024-03-04 76 云计算行业报告
算力+双碳提升散热要求,液冷优势明显,有望规模化推广 大模型推动算力需求高增,且受“双碳”宏观背景影响,对散热要 求提升。针对单芯片,液冷相比于风冷散...
2024-02-29 86 云计算行业报告
最新留言