大模型的下半场,门票不再是单纯堆算力,而是要把底层逻辑重新梳理与搭建。
在3月18日举办的英伟达 GTC2026大会上,月之暗面 (Moonshot AI) 创始人 杨植麟 做了一场备受关注的公开演讲。这是他首次系统介绍Kimi K2.5背后的关键技术路线,为“后 Scaling 时代”大模型的演进给出了新方向。
杨植麟 在演讲中强调,想要突破智能天花板,必须对优化器、注意力机制和残差连接等核心模块进行“从零再做”的重构。他把 Kimi 的演进路径总结为三个相互配合的方向:
Token 效率: 杜绝资源闲置,追求更极致的计算能效。
长上下文: 持续强化 Kimi 的长程记忆能力,处理超大规模的信息。
智能体(Agent)集群: 智能形态正从单兵作战,走向可动态生成的“数字集群”。
在 杨植麟 看来,今天的 Scaling 已转向在效率、记忆与自动化协作上挖掘规模效应。若能把这三条维度的增益相乘,模型就可能释放出远超当下的智能水平。
结合此前信息,今年1月底发布的 Kimi K2.5 已经展现出这种“全能”气质。作为月之暗面迄今最强的开源模型,它采用原生多模态架构,不仅在代码与视觉理解上达到 state-of-the-art(SOTA)表现,还支持在“思考”和“非思考”模式之间自由切换,更好地适配 Agent 任务。
随着 月之暗面 技术底牌的亮出,大模型赛道的焦点正从“参数量”转向“智能密度”。当 Agent 集群被视作未来智能的终极形态,Kimi能否在杨植麟提出的“三维相乘”逻辑下实现跨越式升级,正成为行业关注的重点。
用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?