普渡团队推类脑AI方案:冲破“内存墙”,显著降耗

随着大模型对海量数据的依赖越来越强,传统计算机中内存与处理分离带来的**“内存墙”**正消耗大量时间与电力。普渡大学与佐治亚理工学院团队在《科学前沿》发表的新研究,提出用类脑算法打造新型计算架构,力求大幅压低 AI 模型的能耗。

大脑 大模型  AI

 冯·诺依曼架构之痛:内存墙

今天的大多数计算机仍沿用1945年提出的冯·诺依曼架构:内存与计算分开,数据在两者间来回搬运时就会遇到瓶颈。普渡大学计算机工程教授、论文主要作者考希克·罗伊指出,过去四年语言模型规模增长了5000倍,让效率问题变得迫切,他呼吁从根本上重新思考计算机的设计方式。工程界把内存难以跟上处理速度的矛盾称为**“内存墙”**,它吞噬了驱动底层 AI 模型所需的大量时间与能量。

解决方案:受人脑启发的“内存计算”

研究团队认为,破解内存瓶颈的关键,是尝试把内存和计算合一的新型架构,这一思路被称为**“内存计算”(Compute-in-Memory,CIM)**。

  • 算法核心:建议采用受大脑工作方式启发的脉冲神经网络(Spiking Neural Networks,SNN)。过去 SNN 常被批评“慢、准度不高”,但近年表现已有明显提升。

  • CIM 优势:论文提到,“CIM 将计算直接融入内存系统,为突破内存墙提供了很有前景的路径。”这种融合可显著减少数据搬运,提升处理效率。

 应用前景:从数据中心走向现实世界

研究人员相信,把处理与存储做在同一系统内,能显著降低 AI 的能耗。普渡大学合著者、研究员坦维·夏尔马表示:“要让 AI 走出数据中心、进入真实场景,我们必须把能耗大幅降下来。”

借此,AI 有望集成进小巧、亲民且续航更久的设备,推动医疗设备、交通出行与无人机等领域的升级。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享