以OpenClaw为代表的自主执行智能体迅速走红,意味着AI应用正从“对话交流”加速迈向“任务执行”。企业在积极拥抱的同时,也遭遇算力浪费、安全与合规等多重挑战。如何让智能体真正实现规模化、可持续落地,已成为产业共同关注的关键问题。
3月26日,在中关村论坛未来产业创新发展论坛上,蚂蚁数科大模型技术创新部总经理章鹏表示,OpenClaw的走热将引发企业级AI的范式变革,推动大模型从“参数比拼”转向“Token效能较量”。

图说:蚂蚁数科大模型技术创新部总经理章鹏在中关村论坛发表演讲
OpenClaw类智能体的快速普及,体现了市场对自主执行型智能体的强烈需求,但在真实产业场景中仍面临明显难点:由于对行业规则和业务流程理解不足,智能体在处理复杂任务时常出现反复工具调用,导致Token开销远高于有效产出。据悉,在部分高频调用场景,OpenClaw的Token消耗可达集成式Agent的数十倍甚至上百倍,这种高成本、低产出的模式让规模化应用面临可持续性压力。
“大模型产业落地进入下半场,关键不再是参数规模之争,而是单位Token效能的持续提升。”章鹏认为,企业应结合实际业务,采用大模型与小模型协同的方案,以更低算力成本实现更高业务价值。
以金融为例,每天需要处理大量高频、低时延任务——快速识别意图、提取关键信息、检索与排序等。这些任务要求高并发、快响应和高准确。通用型大模型虽然能力强,但在此类场景中往往“大材小用”,成本高、响应慢,容易造成资源浪费。
“产业真正需要的是,在保证专业、严谨与合规的前提下,拿到最优的性价比和响应速度的AI方案。”章鹏表示。他指出,大参数模型擅长复杂推理与深度分析,小参数模型在高频小任务中具备更低延迟和更佳性价比,只有大小模型结合,才能高效、低成本地解决真实业务问题。
在中关村论坛上,蚂蚁数科发布了轻量级金融专用模型Ling-DT-Fin-Mini-2.5,作为Ling DT系列的首款模型。据介绍,Ling DT Fin Mini 2.5是一款轻量化MoE模型,基于Ling2.5最新的混合线性注意力架构,面向金融高并发、低时延任务做了专项优化。在保持专业深度的同时,可将推理成本压至可规模部署的水平。相较业界同能力的主流通用模型,其推理速度提升约100%,在相同任务量下硬件成本显著降低,为金融机构带来切实的降本增效。
实际上,随着AI智能体深入产业核心业务并承担真实任务,大小模型协同已成行业趋势。近期,OpenAI也相继推出两款小模型GPT‑5.4mini与nano,主打低延迟与高性价比,作为执行层的子智能体主力。
章鹏表示,技术发展终将回归对效率的理性追求。下一阶段的竞争中,Token效能将成为衡量企业级AI价值的核心指标。蚂蚁数科将继续深耕企业级AGI,陆续推出百灵企业版Ling DT大模型及其行业版,加速智能体在复杂企业场景中的规模化落地。


















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?