大型语言模型是生成或嵌入式文本的基础模型 (一种大型神经网络)。它们生成的文本可以通过为其 提供起点或“提示”来进行调节,从而使其能够用自然 语言或代...
2025-01-17 61 人工智能AI行业报告
冯诺依曼瓶颈是限制CPU和GPU应用的主因,这个问题也困扰着
FPGA和ASIC,但后二者可重新设计底层架构暂时解决应用需求
不过,上述四种技术架构的芯片目前都是采用冯诺依曼架构,按照此架构设计的
芯片在计算上是采取1进1出的方式,将前一次的计算结果储存在内存中,然后依
序读取完成任务。举例来说,如果计算问题可拆分成10个步骤,在计算第一个步
骤后,会先将结果储存在存储器中,再继续执行第二步骤,以此类推,然后在最
后一个步骤时,才将先前的计算结果提取出来,最后再一次完成。这样的设计造
成只有最多16核的CPU,难以在短时间内完成深度学习的任务。虽然GPU的核
心数高达1000核以上,使得运算时间减少,算力大幅提升,但GPU是针对计算
机图像设计的芯片,与计算机视觉是两个不同的技术方向,因此不属于人工智能
专用芯片。人工智能开发者想要在GPU上完成任务,采取的措施都是不断优化算
法和模型,但GPU的功耗大,成本高,除了服务器外,并不适合配置在终端,于
是延时问题成了应用上的一大困境。
即便FPGA和ASIC也都是采用冯诺依曼架构,且特化后的芯片也不适宜执行一般
任务,但如果他们不作为设备的核心运作芯片,仅执行人工智能任务,作为加速
器使用,完成任务后再将结果回传到CPU上,就可以大幅缩短深度学习算法训练
或模型推理的时间,而且仅执行模型推论结果的设备相当省电,算力需求也不高。
于是,目前企业都会想要在云端和终端部署FPGA或ASIC架构的芯片,作为执行
人工智能加速任务,像是语音识别和图像识别。虽然FPGA和ASIC可满足部分应
用场景所需,可是在长久的规划上,科学家是将新一代架构的类脑芯片作为解决
深度学习计算需求的底层架构。
标签: TMT行业报告 人工智能AI行业报告
相关文章
大型语言模型是生成或嵌入式文本的基础模型 (一种大型神经网络)。它们生成的文本可以通过为其 提供起点或“提示”来进行调节,从而使其能够用自然 语言或代...
2025-01-17 61 人工智能AI行业报告
Spotify(SPOT.US):Spotify 是音乐流媒体领域的全球领导者,市场占有率约 30%。公司业务几乎覆盖全球市场,在拉丁美洲和其他地区的...
2025-01-14 122 TMT行业报告
短剧行业的发展历经了三个重要的阶段,在萌芽阶段(2018-2019年),长视频平台率先布局短剧领域,短视频平台也紧随其后开始涉足。这一时期,短剧作为一...
2025-01-09 69 TMT行业报告
大模型快速发展,网信办数据显示,截至2024年7月30日,全国范围内通过登记备案的行业大模型有136款,占比达69%。行业大 模型深度赋能教育、金融、...
2025-01-08 76 人工智能AI行业报告
广告市场需求与宏观经济环境高度相关,2019年,广告主对整体经济市场的信心波动致使中国广告市场重新进入调整期,新冠疫情 的爆发加剧了市场缩减的态势。2...
2025-01-06 56 TMT行业报告
最新留言