大模型竞争焦点转向“智慧”而非“体量”
随着人工智能大模型的发展日新月异,科学界一直在探索评估大模型“智能水平”的有效指标。近日,清华大学的一支研究团队发布了名为“大模型密度法则”的新理论,其相关成果发表在《自然·机器智能》期刊上。该法则发现,从2023年2月到2025年4月,大型语言模型的能力密度呈现出指数级提升,大约每3.5个月翻一倍。
在计算机领域,被广泛知晓的“摩尔定律”指的是,芯片上的晶体管数会在固定周期内翻番。然而,计算性能的强大并不是依靠芯片面积的简单扩大,而是在极小的空间里集成了海量的计算单元。清华大学计算机系助理研究员肖朝军在接受科技日报采访时提到,大模型的“智能能力”同样需要一个衡量标准,这正是所谓的“能力密度”。
这一研究假设提出:只要采用相同的训练和构建方式,不同规模的大模型在能力密度上应当是一致的。这就像芯片行业通过不断压缩电路间距提升单位面积的计算力,AI大模型也在向着单位参数具备更高智能能力的方向持续进化。
肖朝军指出,过去大家常用“模型参数量”这个维度来判断一个模型的强大与否,参数越多、模型越大,智能水平也被认为越高,这种想法类似于用体重衡量举重运动员的力量。而密度法则则提出,应更关注单位模型参数所承载的智能能力多少。正如评判武术高手,不在于其肌肉多壮硕,而在于每一次出招中所蕴含的真功夫。
研究团队梳理了近年新出的51款主流开源大模型后,总结出:顶尖大模型的能力密度每3.5个月就能翻番一次,这种增长幅度极为可观。得益于数据、算力与算法等多方面的协同进步,如今达到特定智能水准所需的模型规模已经越来越小。
团队还据此进一步推论,具有同等智能水平的模型,其推理所需要的运算消耗正在迅速降低。同时,大模型的能力密度提升速度也持续加快。例如,在ChatGPT发布之前,能力密度每4.8个月翻倍,ChatGPT发布后,这一周期缩短为3.2个月,加速了50%。这表明大模型技术及其开源生态在日益成熟,智能密度“进化”不断提速。
肖朝军强调,能力密度升高,意味着大模型更加高效、聪明,同时对计算资源的依赖下降,运行成本随之减少。这一前提下,无论学界还是产业界都可以围绕能力密度,推动多元技术创新,让AI成果惠及更多领域。
从实际应用看,“密度法则”预示着AI模型将更具可用性和普及潜力。肖朝军介绍,随着芯片电路密度(受摩尔定律影响)与模型能力密度的同步跃升,未来曾经只能在云端部署的庞大模型,将能够直接运行在终端设备上。这样不仅提升了响应速度,还有助于保护用户隐私,更好地服务实际需求。
肖朝军举例,以前AI大模型在智能汽车主要用于“帮我开关车窗”“查找本地信息”等被动型应用。将更精巧的端侧模型集成进车载系统后,借助更强的环境感知和意图识别能力,能够让座舱实现感知与决策的闭环,从“被动响应”转向“主动服务”,让智能更深入地融入驾驶体验。
记者 张盖伦





