首页 行业报告下载文章正文

人工智能系列主题研究报告:AI芯片(23页)

行业报告下载 2018年10月02日 06:25 管理员

新品竞相发布,AI 芯片行业格局渐趋明朗。AI 芯片设计是人工智能产业链的重要一环。自2017 年5 月以来,各AI 芯片厂商的新品竞相发布,经过一年多的发展,各环节分工逐渐明显。AI 芯片的应用场景不再局限于云端,部署于智能手机、安防摄像头、及自动驾驶汽车等终端的各项产品日趋丰富。除了追求性能提升外,AI 芯片也逐渐专注于特殊场景的优化。

AI 芯片市场规模:未来五年有接近10 倍的增长,2022 年将达到352 亿美元根据我们对相关上市AI 芯片公司的收入统计,及对AI 在各场景中渗透率的估算,2017年AI 芯片市场规模已达到39.1 亿美元。人工智能系列主题研究报告:AI芯片(23页)

云端训练芯片:TPU 很难撼动Nvidia GPU 的垄断地位。训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权重参数的过程。CPU 由于计算单元少,并行计算能力较弱,不适合直接执行训练任务,因此训练一般采用“CPU+加速芯片”的异构计算模式。目前Nvidia 的GPU+CUDA计算平台是最成熟的AI 训练方案。

Nvidia GPU 在云端训练芯片中占据领导者地位。GPU 最初只服务于图形处理加速,为了使GPU 能够更好地用于通用计算,Nvidia 开发了CUDA 计算平台。CUDA 对各种主流学习框架的兼容性最好,成为Nvidia 的核心竞争力之一。目前Nvidia GPU 已发展到第六代Volta架构,5120 个CUDA 核心提供了超120 TFLOPS 深度学习算力,带宽高达900GB/s,以其优异的性能继续在全球领先。

在GPU 之外,云端训练的新入竞争者是TPU。Google 在去年正式发布了其TPU 芯片,并在二代产品中开始提供对训练的支持,但比较下来,GPU 仍然拥有最强大的带宽(900GB/s,保证数据吞吐量)和极高的深度学习计算能力(120 TFLOPS vs. TPUv2 45 TFLOPS),在功耗上也并没有太大劣势(TPU 进行训练时,引入浮点数计算,需要逾200W 的功耗,远不及推断操作节能)。目前TPU 只提供按时长付费使用的方式,并不对外直接销售,市占率暂时也难以和Nvidia GPU 匹敌。

文件下载
资源名称:人工智能系列主题研究报告:AI芯片(23页)


标签: TMT行业报告 人工智能AI行业报告

并购家 关于我们   意见反馈   免责声明 网站地图 京ICP备12009579号-9