AI大模型竞争不再以规模取胜
在人工智能大模型如火如荼发展的当下,业界不断探索衡量其“智力水平”的方法。日前,清华大学研究人员推出了“大模型密度法则”,并在《自然·机器智能》发布相关成果。团队发现,大语言模型的最高能力密度正以指数速度提升,自2023年初到2025年春,平均每3.5个月就能实现一次倍增。
许多人熟知摩尔定律——每过一段时间,芯片集成的晶体管数就加倍,计算力由此飞速增长。摩尔定律的意义不在于芯片体积不断变大,而是微小尺寸内性能能力急剧扩展。清华大学计算机系肖朝军指出,大模型同样需要衡量“能力密度”,这一指标串联起模型智力成长路径。
研究团队提出,在同样训练方法和制造工艺下,不同规模的大模型其能力密度基本趋同。芯片领域通过电路密度推动设备普及与性能优化,AI大模型则借助能力密度持续提高效能、降低资源消耗。
肖朝军表示,过去大家关注模型参数量的增长,认为“体积”越庞大智能越突出,类似对运动员体格的粗略比较。而如今,密度法则启示我们优化的焦点应转向“能力密度”——即单个参数所蕴含的智能。正如评判武林高手,关键不是肌肉块头,而是一招一式的深厚内力。
在对近几年发布的51个开源大模型进行分析后,研究者发现最大能力密度正逐步加速上升:自2023年起,每3.5个月翻倍一次。这表明,数据、算力、算法三方面协同进步,使模型更精简的参数就能达到同等智能表现。
基于密度法则,团队进一步推演:同等智力水平的模型在推理所需资源上正持续降低,能力密度正飞速提高。值得注意的是,ChatGPT问世前能力密度约4.8个月翻一番,发布后仅需3.2个月,提升速度约快了50%。这反映出大模型技术逐渐成熟,开源生态不断壮大,能力密度提升进入加速阶段。
肖朝军指出,能力密度提升不仅凸显模型智能的增加,还意味着算力消耗和运行成本趋于降低。围绕这一方向,无论是学术研究还是工业应用,都能推动技术创新,让大模型惠及更广泛人群。
密度法则的提出,也让人工智能模型逐步向终端设备靠近。肖朝军介绍,由于芯片与AI模型能力密度的同步增强,未来原本只能放在云端的大模型,有望部署在手机、智能汽车等终端。模型在本地运行,无需远程响应,既提升了操作速度,也保护了个人隐私,让用户获得更多贴身服务。
以智能汽车为例,以往大模型多是“被动响应”,如“打开车窗”或“查询餐厅”。而端侧模型真正“上车”后,结合多模态感知和意图理解,能够主动分析车内外环境并自主决策,推动智能座舱由简单执行转向主动服务,使驾驶体验全面智能化。
记者 张盖伦





