首页 行业报告下载文章正文

2019年中国AI芯片行业研究报告(49页)

行业报告下载 2019年05月22日 07:02 管理员

冯诺依曼瓶颈是限制CPU和GPU应用的主因,这个问题也困扰着

FPGA和ASIC,但后二者可重新设计底层架构暂时解决应用需求

不过,上述四种技术架构的芯片目前都是采用冯诺依曼架构,按照此架构设计的

芯片在计算上是采取1进1出的方式,将前一次的计算结果储存在内存中,然后依

序读取完成任务。举例来说,如果计算问题可拆分成10个步骤,在计算第一个步

骤后,会先将结果储存在存储器中,再继续执行第二步骤,以此类推,然后在最

后一个步骤时,才将先前的计算结果提取出来,最后再一次完成。这样的设计造

成只有最多16核的CPU,难以在短时间内完成深度学习的任务。虽然GPU的核

心数高达1000核以上,使得运算时间减少,算力大幅提升,但GPU是针对计算

机图像设计的芯片,与计算机视觉是两个不同的技术方向,因此不属于人工智能

专用芯片。人工智能开发者想要在GPU上完成任务,采取的措施都是不断优化算

法和模型,但GPU的功耗大,成本高,除了服务器外,并不适合配置在终端,于

是延时问题成了应用上的一大困境。

即便FPGA和ASIC也都是采用冯诺依曼架构,且特化后的芯片也不适宜执行一般

任务,但如果他们不作为设备的核心运作芯片,仅执行人工智能任务,作为加速

器使用,完成任务后再将结果回传到CPU上,就可以大幅缩短深度学习算法训练

或模型推理的时间,而且仅执行模型推论结果的设备相当省电,算力需求也不高。

于是,目前企业都会想要在云端和终端部署FPGA或ASIC架构的芯片,作为执行

人工智能加速任务,像是语音识别和图像识别。虽然FPGA和ASIC可满足部分应

用场景所需,可是在长久的规划上,科学家是将新一代架构的类脑芯片作为解决

深度学习计算需求的底层架构。

2019年中国AI芯片行业研究报告(49页)

文件下载
资源名称:2019年中国AI芯片行业研究报告(49页)


标签: TMT行业报告 人工智能AI行业报告

并购家 关于我们   意见反馈   免责声明 网站地图 京ICP备12009579号-9