拿下5000万美元种子轮!斯坦福教授创立Inception以“扩散式大模型”对标GPT-5,代码生成速度破1000 token/秒

当全球AI竞争还集中在自回归大模型(如GPT-5、Gemini)之际,一家新创团队正以不同的底层设计切入赛道。由斯坦福大学教授Stefano Ermon创办的Inception,近日拿下5000万美元种子轮融资:Menlo Ventures领投,微软M12、英伟达NVentures、Snowflake Ventures、Databricks Investment与Mayfield跟投,吴恩达(Andrew Ng)和Andrej Karpathy以天使身份加入,投资阵容可谓强大。

Inception的核心选择,是把最早用于图像生成的扩散模型(Diffusion Models)全面带到文本与代码场景,向当下主流的自回归路线发起挑战。Ermon表示,GPT、Gemini这类模型采用“逐词预测”,必须串行生成,速度与效率受到限制;而扩散模型通过多轮并行迭代整体优化输出,在处理大型代码库或长文档时更有优势。

这一思路已落地为产品:公司同步发布其最新模型Mercury,面向软件开发使用,目前已接入ProxyAI、Buildglare、Kilo Code等多款开发者工具。实测显示,Mercury在代码补全、重构和跨文件理解等任务中,推理吞吐突破1000 token/秒,显著快于主流自回归模型。“我们的架构生来就适合并行,”Ermon强调,“更快、更省、对算力成本也更友好。”

为什么扩散模型适配代码?

代码不同于自然语言——结构更严密、依赖全局上下文,且常涉及跨文件关联。自回归模型在这种任务中因为“逐字生成”容易忽视整体一致性;扩散模型从“噪声”出发,通过多轮全局调整逼近目标,更贴合高度结构化的数据。同时,其并行计算特性可充分吃满GPU/TPU集群,显著降低延迟与能耗,直面当下AI基础设施的高成本问题。

巨头为何青睐?

在训练与推理成本持续上行的大背景下,效率成了关键赛点。微软、英伟达、Databricks等投资方正搭建各自的AI开发栈,急需高性能、低开销的模型底座。Inception的路径,可能为大模型商业化提供一条“省算力、高吞吐”的新方案。

业内观点认为,Inception的崛起意味着AI架构探索进入深水区——当单纯堆参数的收益趋于减弱,底层范式的创新将成为破局关键。若扩散式LLM能在代码、科研、金融等高价值场景持续证明优势,这场源自斯坦福实验室的技术变革,有望重塑生成式AI的未来版图。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享