百亿美元豪赌“晶圆级巨芯”!OpenAI携手Cerebras建全球最大AI推理平台,15倍速冲击英伟达优势

OpenAI与美国AI芯片独角兽Cerebras宣布,将以 750 兆瓦规模部署Cerebras晶圆级系统,打造全球最大的高速AI推理平台。该项目将自 2026 年起分期上线,目标在 2028 年前全面投产,合同总额超 100 亿美元(约合人民币 697 亿元),意味着大模型公司正加速摆脱对传统GPU架构的单一依赖。

Cerebras 的芯片以“超大”著称——单片集成约 4 万亿晶体管,面积可比肩数百颗常规GPU。其关键在于把计算、内存与带宽统一到一整块晶圆上,避开多芯片互连带来的延迟与能耗障碍。按 OpenAI 的测算,在运行大模型时,Cerebras 系统的响应速度可比基于GPU的方案快约 15 倍。对追求毫秒级交互的AI应用而言,这不只是“更快”,更是体验层面的跃迁。

值得一提的是,OpenAI CEO 萨姆·阿尔特曼本身就是 Cerebras 的早期个人投资人。双方渊源可回溯到 2017 年——彼时 OpenAI 刚起步,就已与这家同年成立的芯片公司探讨合作。法庭文件显示,OpenAI 长期在寻找比英伟达更高效、成本更优的替代路线。过去一年,它先与博通联合研发定制芯片,又采购 AMD 新一代 MI450 加速器,如今再加码 Cerebras,进一步表明其打造多元算力底座的坚定方向。

Cerebras CEO Andrew Feldman 透露,双方于 2023 年秋季启动正式谈判,并在感恩节前敲定合作框架。驱动这一决定的,是市场对“极致快速计算”的强烈需求。OpenAI 基础设施负责人 Sachin Katti 表示,算力规模直接影响公司的收入上限:过去两年,计算能力几乎年年翻倍,收入也随之水涨船高。与此同时,工程师反馈称,在编程辅助等高强度任务上,现有硬件仍显吃力,这也促使公司加速引入 Cerebras 方案。

资本层面,Cerebras 估值正迎来跃升。据《华尔街日报》报道,公司正以约 220 亿美元估值洽谈融资 10 亿美元,较此前 81 亿美元几近三倍。虽曾在 2024 年提交 IPO 申请后又撤回,但如今手握 OpenAI、Meta、IBM 及阿布扎比 G42 等重磅客户,其商业化路径更为明朗。截至目前,Cerebras 累计融资已达约 18 亿美元,尚未计入本轮新资金。

这次合作不仅关乎两家企业的走向,更映照出 AI 基础设施的深度变革:当大模型进入大规模商用阶段,推理效率正在成为用户体验与商业变现的关键杠杆。英伟达仍主导生态,但晶圆级集成、定制 ASIC 等异构路线,正被头部玩家密集押注。未来的 AI 竞争,或许不再只拼参数,而是谁能在“开口的刹那,就给出答案”。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享