清华最新研究:AI大模型别只拼“体量”,关键看“能力密度”

不久前,清华大学团队在国际期刊《自然・机器智能》发表了一项颇具启发性的研究,提出了“能力密度”这一新概念。该研究对传统看法提出质疑:评估 AI 大模型的水平,不能只盯着参数有多少,也就是“块头”,更要看每个参数能体现出的智能程度,即“密度”。

长期以来,AI 领域盛行“模型越大越强”的理念,这条“规模法则”推动了近年众多强力模型的诞生。但随着参数不断膨胀,训练和使用成本也迅速上涨,给 AI 的产业化落地带来不小的压力。

大脑 大模型  AI

清华团队的研究还指出,提升 AI 的“能力密度”并不是把大模型简单压缩就行。研究者形象地表示,硬把一本厚字典挤进小本子,往往会导致“能力”打折。因此,他们强调,需要在“数据 + 算力 + 算法”上搭建更先进的协同体系,才能做出真正“高密度”的小模型。

研究进一步发现,在过去几年发布的 51 个开源大模型中,“能力密度”呈指数级提升,大约每 3.5 个月就翻倍一次。这意味着,如今需要一个体育馆大小的“脑”来解决的复杂任务,不久后可能只需客厅大小;再过 3 个半月,或许背包大小就能胜任。

基于这一思路,清华大学已与 AI 企业面壁智能展开合作,推出了一系列“高密度”模型,并在手机、汽车、智能家居等场景成功应用。团队认为,未来的 AI 不再一味追求庞大,而会更注重“精炼”和“高效”。当芯片算力与智能密度相结合时,个人设备将拥有更强的本地智能,响应更快,也能更好地守护用户隐私。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享