大模型“价格战”再起。阿里云旗下的大模型服务平台百炼今日发布公告:自2025年11月13日起,面向中国站(北京区域)的通义千问3-Max模型全面降价,核心调用费用直接降至原来的一半,同时优化缓存计费策略,显著降低企业与开发者的长期使用成本。此举旨在打破大模型应用的“高门槛”困境,加速AI在中小企业数字化转型中的落地。
三项降价措施,直击使用成本难题
Batch批量调用费用减半:面向批量文本处理、日志分析、客服对话等高并发场景,成本直接降低50%,整体经济性更优;
隐式缓存命中仅按20%计费:对重复或相似请求,系统自动使用缓存,命中部分按输入Token标准单价的20%收费;
显式缓存性价比大幅提升:创建缓存成本为输入Token单价的125%,但后续命中调用仅需10%费用,高频业务长期使用可节省超过90%的支出。
从“免费试用”走向“可持续普惠”
此次调整并非孤立动作。此前阿里云已将部分模型服务由“限时免费”改为“限时额度”,引导用户合理规划资源。如今通义千问3-Max降价,意味着策略进一步升级:通过更精细的计费与规模化降本,实现既普惠又可持续的AI服务模式。
中小企业迎来AI落地关键窗口
在企业加速智能化的趋势下,API调用费用长期居高不下仍是核心障碍。此次降价,尤其利好高频调用的大模型场景,例如:
智能客服系统(日均万级对话);
电商商品描述自动生成;
金融合规文本审核;
教育个性化习题生成。
一位SaaS服务商的技术负责人表示:“调用成本降到一半后,我们的AI功能毛利率有望提升约15个百分点,终于敢把大模型深度集成进核心产品。”
行业影响:国产大模型迈入“价值竞争”新阶段
继百度、字节等厂商优化模型定价后,阿里云此次大幅降价,体现出国产大模型竞争正从“参数规模比拼”转向“成本效率与生态价值”的深层竞争。当头部玩家主动下调价格,行业洗牌或将加速——唯有同时具备自研芯片、高效推理引擎与规模化落地能力的厂商,才能在“低价高质”的时代持续领跑。
业内观点认为,通义千问3-Max的降价不仅是商业策略,更是对“AI民主化”的切实推进。当大模型从“奢侈品”走向“日用品”,真正的产业智能化浪潮,才刚刚启幕。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?