OpenAI携手美国AI芯片独角兽Cerebras官宣,计划上线总功率达 750 兆瓦的Cerebras晶圆级系统,打造全球规模最大的高速AI推理平台。合作将从 2026 年起分期推进,预计在 2028 年前全部落地投产,交易规模超过 100 亿美元(约人民币 697 亿元),意味着大模型公司正加快摆脱传统GPU架构的束缚。
Cerebras的芯片被称为“巨无霸”——一颗就塞下 4 万亿晶体管,面积比肩数百块常规GPU。它的关键优势是把计算、内存和带宽都做到同一块晶圆级硅片上,彻底避开多芯片互连带来的延迟和能耗问题。OpenAI的测试显示,在跑大模型时,Cerebras系统的响应速度可比传统GPU方案快 15 倍。对需要毫秒级交互的AI应用来说,这不只是性能提升,更是体验上的飞跃。
还有一个细节:OpenAI CEO 萨姆·阿尔特曼早就是Cerebras的个人早期投资者。双方的联系可以追溯到 2017 年——当时OpenAI刚成立不久,就在考虑与这家同年创立的芯片公司合作。根据法庭文件,OpenAI一直在寻找比英伟达更高效、性价比更好的替代路线。过去一年,它已与博通共同打造定制芯片,并采购AMD的新一代 MI450 加速器,如今再继续押注Cerebras,体现了其搭建多元算力底座的坚定策略。
Cerebras CEO Andrew Feldman表示,双方在 2023 年秋天开启正式谈判,并在感恩节前确定合作框架。促成这一决定的,是市场对“极致快速计算”的强烈需求。OpenAI基础设施负责人 Sachin Katti 坦言:“算力直接影响我们的收入上限。过去两年,计算能力几乎每年翻倍,收入也随之攀升。”工程团队的反馈也指出,现有硬件在编程辅助等高负载场景下仍有压力,这推动公司更快引入Cerebras的方案。
在资本市场上,Cerebras的估值也大幅跳升。根据《华尔街日报》,公司正以 220 亿美元估值谈募 10 亿美元,相比此前的 81 亿美元,接近翻到三倍。尽管它在 2024 年提交IPO后又撤回,但如今已拥有 OpenAI、Meta、IBM 以及阿布扎比的 G42 等大客户,商业化路径更加明确。到目前为止,Cerebras累计融资达到 18 亿美元,尚不包含本轮新募资金。
这次牵手不仅影响两家公司的发展,也映射出AI底层设施的深度变化:当大模型走向大规模商用,推理效率就成了用户体验和商业回报的关键。英伟达依然占据生态主导,但晶圆级集成、定制ASIC等异构路线,正在被头部厂商集中下注。未来的AI竞争,可能不再比谁的参数更多,而是谁能做到“话一说出口,答案立刻到”。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?