随着大模型对海量数据的依赖不断加深,传统计算机中将内存与处理能力分离的设计,让数据在两端频繁搬运,形成**“内存墙”**这一瓶颈,耗时又费电。普渡大学与佐治亚理工的团队在《科学前沿》发表新研究,提出用类脑算法构建新型计算架构,力图显著降低AI模型的能耗。

冯·诺依曼架构的瓶颈:内存墙
如今多数计算机仍基于1945年提出的冯·诺依曼架构。内存和运算单元分离,数据高速往返时就会卡在带宽与延迟上。普渡大学计算机工程教授、论文作者考希克·罗伊指出,过去四年语言模型规模已扩大5000倍,效率问题被推到前台,他呼吁从根本上重新思考计算机的设计方式。工程界把内存容量难以匹配算力速度的难题称为**“内存墙”**,它吞噬了运行大模型所需的大量时间与能源。
解决方案:受人脑启发的“内存计算”
论文认为,破解内存瓶颈的关键是把内存和计算紧密合一,构建称为“内存计算”(Compute-in-Memory, CIM)的新型体系。
-
算法核心:团队建议AI模型采用受大脑工作机制启发的脉冲神经网络(Spiking Neural Networks, SNN)。过去SNN常被批评速度慢、精度不高,但近年表现已有明显提升。
-
CIM 优势:论文摘要提到,“CIM 通过把计算能力直接集成进内存系统,为缓解内存墙提供了有前景的路径。”这种整合能减少数据搬运并提高处理效率。
应用前景:从数据中心走向现实世界
研究人员相信,把计算和存储合到同一系统,有望大幅压降AI能耗。普渡大学合著者、研究员坦维·夏尔马表示:“要把AI从数据中心带到现实世界,我们需要把能耗大幅降下来。”
借助这一路线,AI可嵌入小巧、价格亲民、续航更久的设备中,用于改进医疗设备、交通出行和无人机等多个场景。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?