随着大模型对海量数据的依赖越来越强,传统计算机中内存与处理分离带来的**“内存墙”**正消耗大量时间与电力。普渡大学与佐治亚理工学院团队在《科学前沿》发表的新研究,提出用类脑算法打造新型计算架构,力求大幅压低 AI 模型的能耗。

冯·诺依曼架构之痛:内存墙
今天的大多数计算机仍沿用1945年提出的冯·诺依曼架构:内存与计算分开,数据在两者间来回搬运时就会遇到瓶颈。普渡大学计算机工程教授、论文主要作者考希克·罗伊指出,过去四年语言模型规模增长了5000倍,让效率问题变得迫切,他呼吁从根本上重新思考计算机的设计方式。工程界把内存难以跟上处理速度的矛盾称为**“内存墙”**,它吞噬了驱动底层 AI 模型所需的大量时间与能量。
解决方案:受人脑启发的“内存计算”
研究团队认为,破解内存瓶颈的关键,是尝试把内存和计算合一的新型架构,这一思路被称为**“内存计算”(Compute-in-Memory,CIM)**。
-
算法核心:建议采用受大脑工作方式启发的脉冲神经网络(Spiking Neural Networks,SNN)。过去 SNN 常被批评“慢、准度不高”,但近年表现已有明显提升。
-
CIM 优势:论文提到,“CIM 将计算直接融入内存系统,为突破内存墙提供了很有前景的路径。”这种融合可显著减少数据搬运,提升处理效率。
应用前景:从数据中心走向现实世界
研究人员相信,把处理与存储做在同一系统内,能显著降低 AI 的能耗。普渡大学合著者、研究员坦维·夏尔马表示:“要让 AI 走出数据中心、进入真实场景,我们必须把能耗大幅降下来。”
借此,AI 有望集成进小巧、亲民且续航更久的设备,推动医疗设备、交通出行与无人机等领域的升级。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?