阿里开源 Qwen3.6-35B-A3B:30亿激活参数带来编程能力大幅跃升

2026年4月16日,阿里巴巴千问大模型团队正式开放稀疏混合专家(MoE)模型 Qwen3.6-35B-A3B,意味着轻量级模型在智能体编程方向迎来关键进展。

QQ20260417-134943.jpg

该模型总体参数规模为350亿,依托MoE架构的稀疏特性,推理时仅需激活约30亿参数。性能方面,Qwen3.6-35B-A3B 以更低的算力成本,在多项核心编程评测上超过了270亿参数的稠密模型 Qwen3.5-27B,并明显优于前代 Qwen3.5-35B-A3B;其逻辑推理与智能体协作能力可与 Gemma4-31B 等大体量模型相媲美。

QQ20260417-134951.jpg

作为一款全模态开源模型,Qwen3.6-35B-A3B 在空间理解与视觉感知上同样表现出色,RefCOCO 得分高达 92.0,部分多模态指标已接近 Claude Sonnet4.5。目前,该模型已集成至 Qwen Studio,并通过阿里云百炼平台以 qwen3.6-flash 名称对外提供 API 服务,支持 preserve_thinking 思维链保留功能,可无缝适配 OpenClaw、Claude Code 及 Qwen Code 等主流 AI 编程助手。

随着端侧 AI 与自动化智能体需求的快速增长,Qwen3.6-35B-A3B 的开源不仅为开发者提供高性能、低功耗的新选择,也预示着“少参数、强智能”的 MoE 模型正成为重塑编程范式与多模态交互的重要基石。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享