YuanLab.ai 团队近日官宣推出“源 Yuan3.0Flash”多模态基础大模型,并同步开源。除提供 16bit 与 4bit 的模型权重外,还附上完整技术报告与训练流程,便于社区开展二次开发与行业化定制,加速 AI 技术的落地与普及。

Yuan3.0Flash 拥有 40B 参数规模,采用稀疏混合专家(MoE)架构,推理时仅激活约 3.7B 参数。该设计在保证推理准确性的同时显著降低算力开销,践行“更少算力、更高智能”的思路。模型还引入强化学习训练范式(RAPO),并通过反思抑制奖励机制(RIRM)有效减少无效反思,进一步提升整体表现。
在整体架构上,Yuan3.0Flash 由视觉编码器、语言主干网络以及多模态对齐模块构成。语言主干采用带局部过滤增强的 Attention(LFA)与混合专家结构(MoE)组合,在确保注意力计算精度的前提下,大幅降低训练与推理的资源消耗。视觉编码器将视觉信号转化为 token,与语言 token 一同输入,实现高效的跨模态特征对齐。
在落地应用中,Yuan3.0Flash 在企业场景的综合表现已优于 GPT-5.1,尤其在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上展现出明显优势。于多模态推理与语言推理评测中,其精度逼近更大参数规模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),同时 token 消耗仅为后者的 1/4 到 1/2,显著降低企业使用成本。
后续,“源 Yuan3.0”将持续迭代,计划推出 Flash、Pro 与 Ultra 多个版本,覆盖 40B、200B、1T 等不同参数规模,进一步拓展模型在各类应用中的可能性。
划重点:
🌟 Yuan3.0Flash 是一款开源的 40B 级多模态基础模型,提供多种权重与详尽技术文档。
💡 采用创新稀疏混合专家架构,推理耗算显著下降,智能表现更强。
🚀 在企业级应用中表现出色,已超越 GPT-5.1,多模态推理能力突出并有效降低成本。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?