AI大模型竞争不靠规模论胜负
当前,人工智能大模型发展势头强劲,人们也在探索有效衡量其智能的方法。最近,清华大学的科研团队提出了一套新的评估体系——“密度法则”,相关研究论文已发表于《自然·机器智能》。他们指出,大型语言模型的最大能力密度(即单位参数所含智能量)正在以指数速度提升——从2023年2月至2025年4月,每约3.5个月翻倍一次。
我们熟悉的“摩尔定律”强调了芯片集成度对性能的提升作用:有限空间内集成更多晶体管,让计算能力不断跃升。清华大学计算机系助理研究员肖朝军在接受科技日报采访时表示,类似于摩尔定律,大模型的智能水平也可以用“能力密度”来度量。
该研究的基础假设是,只要采用同样的工程技术并经过充分训练,不同大小的大模型理论上会拥有相同的能力密度。正如芯片行业追求更高的电路密集度以推动小型化和普及化,AI大模型的发展也越来越关注参数效率和能力密集度。
肖朝军进一步解释道:“过去,我们习惯用参数数量衡量大模型的强弱,就像用体重判断举重运动员的力量。如今,密度法则为大模型高效成长指出了新方向——重视每一个参数‘单位’所蕴含的智能含量。就像评判武林高手,不在乎块头而是重在招式深度。”
这一团队对近几年发布的51个开源大模型进行系统分析,发现大模型能力密度的提升速度惊人。自2023年以来,能力密度平均每3.5个月翻倍,意味着同样智能可以通过更少的参数实现,“数据—算力—算法”三者协同推动着AI越来越高效。
由此团队还推论出一些趋势。例如,达到同等智能水平所需的计算成本也在指数级下降。同时,自ChatGPT问世后,能力密度的翻倍周期从4.8个月缩短至3.2个月,提升速度加快了50%,反映出技术成熟和开源生态发展促进了密度的加速增长。
肖朝军指出,密度法则的直观意义是,能力密度越大,模型越聪明,运行所需的算力更低,相应成本也更小。围绕这一规律,无论是学术还是产业界,都有更多方向进行创新,推动大模型逐步走向普惠。
从实际应用角度看,密度法则的出现,也在推动AI逐步落地更加广泛的场景。肖朝军展望,随着芯片工艺进步和模型能力密度不断攀升,原本只适合部署在云端的大型AI未来有望移植到终端设备,这样不仅提升响应速度,还能更好保护用户隐私,带来全新体验。
以智能汽车为例,肖朝军介绍,早期大模型应用仅能实现“帮忙操作车窗”或“查询附近餐厅”等被动服务。如今,随着模型端侧部署成为可能,汽车智能座舱能整合更多感知和理解能力,实现环境与用户意图的深度感知与主动决策,让驾驶体验更加智能和贴心。
记者 张盖伦





