2026年4月16日,阿里巴巴千问大模型团队正式开放稀疏混合专家(MoE)模型 Qwen3.6-35B-A3B,意味着轻量级模型在智能体编程方向迎来关键进展。

该模型总体参数规模为350亿,依托MoE架构的稀疏特性,推理时仅需激活约30亿参数。性能方面,Qwen3.6-35B-A3B 以更低的算力成本,在多项核心编程评测上超过了270亿参数的稠密模型 Qwen3.5-27B,并明显优于前代 Qwen3.5-35B-A3B;其逻辑推理与智能体协作能力可与 Gemma4-31B 等大体量模型相媲美。

作为一款全模态开源模型,Qwen3.6-35B-A3B 在空间理解与视觉感知上同样表现出色,RefCOCO 得分高达 92.0,部分多模态指标已接近 Claude Sonnet4.5。目前,该模型已集成至 Qwen Studio,并通过阿里云百炼平台以 qwen3.6-flash 名称对外提供 API 服务,支持 preserve_thinking 思维链保留功能,可无缝适配 OpenClaw、Claude Code 及 Qwen Code 等主流 AI 编程助手。
随着端侧 AI 与自动化智能体需求的快速增长,Qwen3.6-35B-A3B 的开源不仅为开发者提供高性能、低功耗的新选择,也预示着“少参数、强智能”的 MoE 模型正成为重塑编程范式与多模态交互的重要基石。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?