首页 行业报告下载文章正文

AI行业报告:从模型视角看端侧AI(57页)

行业报告下载 2024年09月03日 06:27 管理员

基础的构建:模型实现高效压缩是端侧AI的第一步。模型尺寸变小、同时具备较好性能,是端侧AI 的前提。目前,在10B参数规模以下的模型中,7B尺寸占据主流,3B及以下小模型仍在探索,部分 小模型性能正逐步接近更大参数模型,如谷歌Gemini-Nano模型在部分测试基准上接近GeminiPro、Meta Llama-3-8B模型表现可与Llama-2-70B匹敌。模型厂商为兼顾模型尺寸与性能,在算 法优化上进行积极探索,在模型压缩技术、稀疏注意力机制、多头注意力变体等领域取得持续进展, 帮助模型减少参数、降低存算需求,同时保持较好的性能,为端侧AI奠定小模型的基础。 落地的关键:模型适配终端硬件是端侧AI的第二步。小语言模型(SLM)不完全等于端侧模型,在 模型实现高效压缩后,需要进一步与手机硬件进行适配,帮助小模型装进终端。从众多小模型论文 中可以发现,当前主要存在内存、功耗、算力三大硬件瓶颈。其中,苹果在其论文《LLM in a flash》中指出,70亿半精度参数的语言模型,完全加载进终端需要超过14GB的DRAM空间;Meta 在其MobileLLM模型论文中指出,一个约有5000焦耳满电能量的iPhone,仅支持7B模型在10 tokens/秒的AI生成速率下对话不足2小时。为解决以上问题,手机芯片厂商正加速推进AI芯片研发, 在先进制程、内存容量及带宽、CPU和GPU性能、以及AI服务器上发力,手机品牌商也将配备更高 性能的电池、散热元器件,提升整体终端硬件能力,更好地支持AI模型。

AI行业报告:从模型视角看端侧AI(57页)

文件下载
资源名称:AI行业报告:从模型视角看端侧AI(57页)


标签: 人工智能AI行业报告

并购家 关于我们   意见反馈   免责声明 网站地图 京ICP备12009579号-9

分享

复制链接

ipoipocn@163.com

发送邮件
电子邮件为本站唯一联系方式