首页 行业报告下载文章正文

人工智能行业报告:AI2.0、AI大模型、算力、AI赋能(262页)

行业报告下载 2023年07月28日 08:48 管理员

算力芯片:全球 900 亿美金市场,训练英伟达一家独大,推理百花齐放。我们认为是否拥 有大模型将成为科技巨头科技平台企业的重要分水岭。我们预计全球有约 30 家科技巨头 和 300 家 AI 大模型初创企业在进行算力相关投资。到 2025 年,这对应大约每年 300 亿美 金训练芯片和 600 亿美金的推理芯片市场。其中,英伟达凭借 CUDA 软件框架构建的强 大行业壁垒,在训练芯片市场一家独大,推理芯片方面,海外客户除了采用英伟达、AMD 等的通用 GPU 以外,也会采用 TPU 等 ASIC 以提高性价比。国内客户出于供应链安全考 虑,逐步提升国产芯片的适用占比。海思,寒武纪,燧原等企业都有较好发展。 服务器/PCB/先进封装:AI 服务器增速超传统服务器,高算力需求带动先进封装需求。从 GPU 到 AI 工厂,我们认为 AI 计算会为整个服务器产业链带来增长。相较于全球传统服务 器需求持续低迷,根据 IDC 预测 AI 服务器 21-26 年复合增速有望达到 17%。我们看到从 单颗 GPU 芯片 H100,通过 NVLINK Switch 形成一颗巨型 GPU,然后通过 Quantum  InfiniBand 技术,搭建有上百张 GPU 的 DGX 服务器,最后把多台 DGX 联通形成一台 AI  超级计算机,整个系统的搭建过程会带动包括服务器整机、PCB、光纤光缆、电源在内的 整个服务器产业链的性能升级。

在先进封装领域,产业从 2.5D 封装正走向 3D 封装,根据 Prismark 预测 ABF 载板作为先进封装关键材料有望在 21-26 年实现复合增速 11.5%,而 相关测试设备有望长期受益于 Chiplet 和国产替代趋势。 光模块:AI 大模型推动 800G 光模块迎放量元年。以 ChatGPT 为代表的 AI 大模型,对数 据中心内外的数据流量都提出了新要求,将带来光模块行业“量”和“质”的双重提升。 以 ChatGPT 为代表的 AI 大模型训练中,由于需要海量数据及跨机器协作,产生了大量的 数据中心内部通信需求,无阻塞的胖树结构成为当下最主流的 AI 训练网络架构,带来两方 面主要变化:1)量方面,AI 网络架构带来数据中心内部交换机、服务器数量的增加,光 模块作为数据中心内外部连接的核心部件,用量将明显提升;2)质方面,AI 对于高速率、 大带宽的网络需求将推动光模块向 800G 加速升级,根据 Lightcounting 预测,2023 将成 为 800G 光模块放量元年,2028 年 800G 出货量有望达 998 万只,对应 2023-2028 年复 合增长率为 72%。在此产业趋势下,我们认为能够提供高速光模块的龙头企业以及上游光 器件、光芯片厂商有望迎发展机遇。

人工智能行业报告:AI2.0、AI大模型、算力、AI赋能(262页)

文件下载
资源名称:人工智能行业报告:AI2.0、AI大模型、算力、AI赋能(262页)


标签: 人工智能AI行业报告

并购家 关于我们   意见反馈   免责声明 网站地图 京ICP备12009579号-9

分享

复制链接

ipoipocn@163.com

发送邮件
电子邮件为本站唯一联系方式