2025-01-25 新品 0
国产替代半导体芯片龙头股,端侧大模型的崛起:将颠覆性变革带来吗?
在生成式AI技术不断进步的今天,大型预训练模型(Large Language Models, LLMs)的能力日益强大,它们正逐渐渗透到各个领域,包括端侧应用。然而,在此之前,CNN(卷积神经网络)已经为端侧设备带来了初步的AI能力。这自然引发了一系列问题:端侧大模型是否能够真正带来颠覆性的变化?2024年世界人工智能大会上,爱芯元智创始人、董事长仇肖莘表达了对这一问题的疑问:“目前端侧大模型的应用仍处于探索阶段,我们尚未能判断其是否会导致根本性的改变。”
在同一届会议上,“芯领未来丨智能芯片及多模态大模型论坛”中,智慧物联和人工智能创新融合专家殷俊提出了一个值得深入讨论的话题:“我们不应该让用户放弃现有的技术投资,而是要通过大小模型协同与小型化实现最优算力配置,以加速大模型行业落地。”
为了回答这个问题,我们需要探讨端侧大模型面临的一些挑战,以及它们将如何在哪些场景先行落地以及可能产生什么样的影响。
历史上的AI浪潮
过去几年里,即使是在智能手机和城市摄像头等公共场所,我们都见证了传统AI算法如CNN和RNN的大规模应用。这些算法使得手机拍照变得更加“智能”,而摄像头则能够识别车牌、统计人流等,这虽然还远未达到完美,但已被广泛接受。
不过,与传统方案相比,大型预训练语言模式似乎更有潜力——不仅效果要好,而且成本可能更低。但目前市场仍然处于试验阶段,没有明确答案。
爱芯元智之所以成为爆款,他们使用的是一种叫做AI-ISP(Artificial Intelligence Image Signal Processing)的方法。这种方法用算法取代了传统ISP中的许多硬件模块,但实际上只是将其中20多个模块中的几个换成了基于机器学习的解决方案。
视觉领域挑战
尽管如此,对于视觉领域来说,大型预训练语言模式依然面临着可靠性、稳定性以及理解客观世界全面性的挑战。在这方面,小型化也是一个关键因素,因为它可以降低计算资源需求,从而提高效率。
内存与带宽限制
另一方面,大型预训练语言模式落地也受限于内存和带宽的问题。“当数据量很大的时候,”仇肖莘说,“数据就会成为瓶颈。而且,如果没有足够大的内存或高性能的处理器,就无法有效运行这些复杂的大规模建模。”
为了克服这些障碍,比如DDR memory使用Wafer to Wafer连接方式增加通道数量,或开发适用于边缘计算环境HBM(High-Bandwidth Memory),都是业界正在探索的一种解决策略。
汽车、手机及PC: 接下来是哪些场景?
据仇肖莘分析,将来的主要落地方向可能包括汽车、大屏幕显示器及个人电脑。他认为,这些设备具有足够强大的处理能力,可以支持Transformer架构,并提供足够高效率以进行推理任务。此外,他还指出,一旦开发出原生支持Transformer架构的小尺寸处理单元,那么移动设备就能够轻松整合并执行这些复杂任务,从而极大提升用户体验并开启新的商业机会。
爱芯通元混合精度NPU设计思路
爱芯元智联合创始人刘建伟解释称,他们从一开始就考虑到了各种不同类型的机器学习框架,如Transformer等,并确保他们设计出的核心指令集既灵活又能满足各种不同的应用需求。此外,他们采用可编程数据流微架构以提高能源效率并增强算力密度,同时保证软件工具链易于开发者使用,以便快速适配新出现的大规模建模任务,如Llama 3 8B和Phi-3-mini,还有一些其他较小参数版本,如TinyLlama-1.1 1.1B,其Token速度表现良好。根据仇肖莘介绍,现在最高支持7B参数的大规模建模任务,有望进一步扩展至苹果手机级别甚至更多边缘计算场景中去工作,使得整个系统更加健壮、高效且经济实惠。
"我们的时机非常恰当,因为当时国内缺乏性价比高的事务管理方案,加之国内车企愿意尝试新事务管理方案,所以我们很快就在Tire1平台获得了一定的订单."
"当前汽车自动驾驶是一个非常好的市场特别是10万以下级别车辆法律法规市场,比如7月份欧盟要求自动驾驶变成强制标配,以减少交通事故,我国主动安全驱动装备增长也会迅速增长."
"我们瞄准的是10万以下售价水平L2+自动驾驶,"
"我们的成本下降策略之一就是将晶片标准化,即设计出所有应用共享最大公约数,然后利用大量生产来降低晶片成本."
总结:
随着生成式AI技术不断发展,无论是在视觉识别还是在语音转写等多个前沿科技方向,都存在巨大的潜力与机会。大型预训练语言模式显然拥有超越传统CV(Computer Vision)或NLP(Natural Language Processing)方法的一个巨大的优势,因此它们有望成为接下来几年的主流趋势。如果成功实现,则它们不仅可以改善现有的产品功能,还可能开辟全新的商业机会,为消费者提供更加丰富多彩的人工智能服务体验。