不久前,清华大学团队在国际期刊《自然・机器智能》发表了一项颇具启发性的研究,提出了“能力密度”这一新概念。该研究对传统看法提出质疑:评估 AI 大模型的水平,不能只盯着参数有多少,也就是“块头”,更要看每个参数能体现出的智能程度,即“密度”。
长期以来,AI 领域盛行“模型越大越强”的理念,这条“规模法则”推动了近年众多强力模型的诞生。但随着参数不断膨胀,训练和使用成本也迅速上涨,给 AI 的产业化落地带来不小的压力。

清华团队的研究还指出,提升 AI 的“能力密度”并不是把大模型简单压缩就行。研究者形象地表示,硬把一本厚字典挤进小本子,往往会导致“能力”打折。因此,他们强调,需要在“数据 + 算力 + 算法”上搭建更先进的协同体系,才能做出真正“高密度”的小模型。
研究进一步发现,在过去几年发布的 51 个开源大模型中,“能力密度”呈指数级提升,大约每 3.5 个月就翻倍一次。这意味着,如今需要一个体育馆大小的“脑”来解决的复杂任务,不久后可能只需客厅大小;再过 3 个半月,或许背包大小就能胜任。
基于这一思路,清华大学已与 AI 企业面壁智能展开合作,推出了一系列“高密度”模型,并在手机、汽车、智能家居等场景成功应用。团队认为,未来的 AI 不再一味追求庞大,而会更注重“精炼”和“高效”。当芯片算力与智能密度相结合时,个人设备将拥有更强的本地智能,响应更快,也能更好地守护用户隐私。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?