大模型竞争从规模转向智能
在近年来大模型技术突飞猛进的背景下,业界一直在寻求有效的标准来评估AI大模型的“智力水平”。近期,清华大学的研究人员提出了一套全新的衡量方法——大模型“密度法则”。相关成果已发表于《自然·机器智能》期刊。据该法则显示,大语言模型的最大能力密度正以指数方式增长,2023年2月至2025年4月期间,平均每3.5个月提升一倍。
众所周知,计算机硬件领域有著名的“摩尔定律”,意指芯片上的晶体管数目每隔一段时间会翻倍,这一原理带来了巨大的计算能力飞跃。清华大学计算机科学与技术系的肖朝军表示,在人工智能领域,大模型“智力密度”的提升同样意义深远,这种能力密度正在成为衡量模型效能的重要标准。
该团队的核心观点认为,只要模型的工艺制程相同且训练充分,不同规模模型在单位参数上的能力密度是一致的。这一发现类似于芯片行业通过提升晶体管集成度,推动设备小型化和普及化。大模型的能力提升,也正在向这一方向演进。
肖朝军解释,过去大家主要关注大模型的“量”(参数规模),认为规模越大能力越强,这就像我们评判举重运动员时只看体重,其实能力密度才更能决定智能的“含金量”。用肖朝军的话来说,评价真正的高手,不在于肌肉有多庞大,而在于每一招一式所蕴藏的深厚功力。
通过对近年出现的51个开源大模型进行深入分析,研究者们发现了一个鲜明规律:大模型的最高能力密度持续呈指数上升,自2023年以来,平均3.5个月密度翻倍。这证明了数据、算力与算法协同进步,使得模型参数越来越“精悍”,用更少的参数也能实现相同的智能表现。
此外,团队还推演出更多趋势。例如,相同智能水平的模型,其推理计算消耗正在持续下降;自ChatGPT问世以来,模型能力密度翻倍的周期由4.8个月缩短为3.2个月,能力提升速度加快了50%。由此可见,随着技术迭代和开源社区发展,大模型的能力密度提升正以更快速度前进。
肖朝军表示,能力密度越高,不仅大模型更为智能,其部署所需的算力和运维成本也大幅减少。这一规律为学术界和产业界指明了发展方向,推动AI技术进一步普惠,覆盖更多应用场景。
从实际应用来看,密度法则也意味着AI正变得愈发易于落地。肖朝军举例说明,随着芯片电路集成度(摩尔定律)与模型能力密度(密度法则)同步提升,将来大模型能够直接在终端设备上运行,而不再依赖云端。这不仅带来了响应效率的提升,也有利于保护用户隐私,为用户带来更丰富多元的智能体验。
以智能汽车为例,传统的大模型多以“被动式”互动为主,例如“帮忙开窗”“查找附近餐馆”。随着模型在终端的部署升级,结合更强的感知与意图理解能力,车辆可以主动分析舱内外环境,实现多模态感知和决策闭环,让智能座舱从“被动响应”升级为“主动服务”,显著提升驾驶的智能化水平。
记者 张盖伦





