液冷是解决“算力热”与“散热焦虑”问题的最优解。全球AI算力快速增长,且芯片TDP功率持续提升,AI算力到2026年将超40GW,占数据中心总能耗超4...
2024-06-23 41 云计算行业报告
集群的有效算力可以分解为 GPU 利用率、集群的线性加速比,GPU 的利用率受制 于芯片架构的制程、内存和 I/O 访问瓶颈、卡间互联带宽和拓扑、芯片功耗等因素, “集群线性加速比”则取决于节点的通信能力、并行训练框架、资源调度等因素。因 而,如何设计高效的集群组网方案,满足低时延、大带宽、无阻塞的机间通信,从而 降低多机多卡间数据同步的通信耗时,提升 GPU 有效计算时间比(GPU 计算时间/ 整体训练时间)至关重要。基于中国移动研究院的《面向 AI 大模型的智算中心网络 演进白皮书》,AI 大模型对网络建设也提出了新的要求:超大规模组网:训练参数达到千亿-万亿级别的 AI 超大模型代表着超高速算力需 求,并进一步对应着大量的硬件需求及与之匹配的网络可延展能力。根据《面向 超万卡集群的新型智算技术白皮书》,当单集群中卡的数量达到万卡级别后,相 应的,如何实现最优运算效率、最佳数据处理能力、硬件层面的万卡互联、网络 系统的可用和易运维等,会成为 AI 智算中心的新议题。RDMA((Remote Direct Memory Access 远程直接内存访问)可以降低多机多卡间 端到端通信时延。在传统网络中,数据传输涉及多个步骤:首先将数据从源系统的内 核复制到网络堆栈,然后通过网络发送。最后,在接收端执行多个步骤后,将数据复 制到目标系统的内核中。RDMA 可以绕过操作系统内核,让一台主机可以直接访问 另外一台主机的内存。目前 RDMA 技术的主要采用方案有 Infiniband 和 RoCEv2(基 于 RDMA 的 Ethernet 技术,后简称为 RoCE)两种。
标签: 云计算行业报告
相关文章
液冷是解决“算力热”与“散热焦虑”问题的最优解。全球AI算力快速增长,且芯片TDP功率持续提升,AI算力到2026年将超40GW,占数据中心总能耗超4...
2024-06-23 41 云计算行业报告
2023年中国经济总体处于疫后恢复态势,与2022年相比,SaaS厂商经营状态逐渐恢复正常,企业级SaaS的总体市场规模达到888 亿元,同比增长13...
2024-06-12 47 云计算行业报告
NISQ 时代 2027 年以前全球或至少需要累计投入 164 亿美元,漫长的技术突破期与不良 的现金流情况将对量子计算行业构成挑战。根据 ICV 研...
2024-05-27 48 云计算行业报告
Transformer 的出现开启了大模型演化之路。大语言模型(LLM)是在大量数据集上预训 练的模型,且没有针对特定任务调整数据,其在处理各种 NL...
2024-05-25 107 云计算行业报告
SDN通过将网络控制平面与数据转发平面分离,实现网络的可编程。随 着商业模式的迭代创新,SDN也越来越多以解决方案形式交付,企业的 付费方式愈发灵活,...
2024-05-08 37 云计算行业报告
全球AI大模型高速发展,算力需求高增驱动AI服务器三年CAGR约为29%的增长,带动算力芯片与光模块产业链受益。2023年以来,以ChatGPT、So...
2024-04-26 188 云计算行业报告
最新留言