YuanLab.ai 团队近日官宣推出“源 Yuan3.0Flash”多模态基础大模型。随着全面开源,AI 领域迎来新的机会。该模型同步提供 16bit 与 4bit 权重,并附带详尽的技术报告与训练流程,支持社区进行二次开发与行业级定制,加速 AI 技术的普及与落地。

Yuan3.0Flash 的参数规模为 40B,采用创新的稀疏混合专家(MoE)架构,在推理时仅约有 3.7B 参数被激活。该设计既提升推理准确性,又显著降低算力开销,践行“更少算力、更高智能”的理念。同时,模型引入 RAPO 强化学习方法,并通过反思抑制奖励机制(RIRM),有效减少无效反思,进一步增强整体性能。
在架构方面,Yuan3.0Flash 由视觉编码器、语言主干网络与多模态对齐模块构成。语言主干采用局部过滤增强的 Attention(LFA)与混合专家(MoE)结构,在确保注意力精度的同时,大幅降低训练与推理中的算力消耗。视觉编码器会把视觉信息转为 token,与文本 token 一起输入,实现高效的跨模态特征对齐。
在实际应用层面,Yuan3.0Flash 在企业场景中的表现已优于 GPT-5.1,尤其在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上展现出明显优势。在多模态推理与语言推理评测中,其精度接近更大规模模型,例如 Qwen3-VL235B-A22B(235B)与 DeepSeek-R1-0528(671B),同时所需 token 仅为后者的 1/4 到 1/2,有效降低企业使用大模型的成本。
未来,“源 Yuan3.0”还将推出 Flash、Pro 与 Ultra 多个版本,参数规模覆盖 40B、200B 与 1T,为不同应用场景提供更丰富的选择。
划重点:
🌟 Yuan3.0Flash 开源发布,40B 规模的多模态基础模型,提供多种权重与完整技术资料。
💡 采用稀疏混合专家架构,推理更省算力、更高效,智能表现同步提升。
🚀 面向企业场景表现出色,已优于 GPT-5.1,多模态推理能力强,显著降低应用成本。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?