普渡团队推类脑AI方案:瞄准破解“内存墙”,显著压降能耗

随着大模型对海量数据的依赖不断加深,传统计算机中将内存与处理能力分离的设计,让数据在两端频繁搬运,形成**“内存墙”**这一瓶颈,耗时又费电。普渡大学与佐治亚理工的团队在《科学前沿》发表新研究,提出用类脑算法构建新型计算架构,力图显著降低AI模型的能耗。

大脑 大模型 AI

 冯·诺依曼架构的瓶颈:内存墙

如今多数计算机仍基于1945年提出的冯·诺依曼架构。内存和运算单元分离,数据高速往返时就会卡在带宽与延迟上。普渡大学计算机工程教授、论文作者考希克·罗伊指出,过去四年语言模型规模已扩大5000倍,效率问题被推到前台,他呼吁从根本上重新思考计算机的设计方式。工程界把内存容量难以匹配算力速度的难题称为**“内存墙”**,它吞噬了运行大模型所需的大量时间与能源。

解决方案:受人脑启发的“内存计算”

论文认为,破解内存瓶颈的关键是把内存和计算紧密合一,构建称为“内存计算”(Compute-in-Memory, CIM)的新型体系。

  • 算法核心:团队建议AI模型采用受大脑工作机制启发的脉冲神经网络(Spiking Neural Networks, SNN)。过去SNN常被批评速度慢、精度不高,但近年表现已有明显提升。

  • CIM 优势:论文摘要提到,“CIM 通过把计算能力直接集成进内存系统,为缓解内存墙提供了有前景的路径。”这种整合能减少数据搬运并提高处理效率。

 应用前景:从数据中心走向现实世界

研究人员相信,把计算和存储合到同一系统,有望大幅压降AI能耗。普渡大学合著者、研究员坦维·夏尔马表示:“要把AI从数据中心带到现实世界,我们需要把能耗大幅降下来。”

借助这一路线,AI可嵌入小巧、价格亲民、续航更久的设备中,用于改进医疗设备、交通出行和无人机等多个场景。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享