源 Yuan3.0Flash:开源多模态基座模型掀起 AI 新风潮

YuanLab.ai 团队近日官宣推出“源 Yuan3.0Flash”多模态基础大模型,并同步开源。除提供 16bit 与 4bit 的模型权重外,还附上完整技术报告与训练流程,便于社区开展二次开发与行业化定制,加速 AI 技术的落地与普及。

image.png

Yuan3.0Flash 拥有 40B 参数规模,采用稀疏混合专家(MoE)架构,推理时仅激活约 3.7B 参数。该设计在保证推理准确性的同时显著降低算力开销,践行“更少算力、更高智能”的思路。模型还引入强化学习训练范式(RAPO),并通过反思抑制奖励机制(RIRM)有效减少无效反思,进一步提升整体表现。

在整体架构上,Yuan3.0Flash 由视觉编码器、语言主干网络以及多模态对齐模块构成。语言主干采用带局部过滤增强的 Attention(LFA)与混合专家结构(MoE)组合,在确保注意力计算精度的前提下,大幅降低训练与推理的资源消耗。视觉编码器将视觉信号转化为 token,与语言 token 一同输入,实现高效的跨模态特征对齐。

在落地应用中,Yuan3.0Flash 在企业场景的综合表现已优于 GPT-5.1,尤其在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上展现出明显优势。于多模态推理与语言推理评测中,其精度逼近更大参数规模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),同时 token 消耗仅为后者的 1/4 到 1/2,显著降低企业使用成本。

后续,“源 Yuan3.0”将持续迭代,计划推出 Flash、Pro 与 Ultra 多个版本,覆盖 40B、200B、1T 等不同参数规模,进一步拓展模型在各类应用中的可能性。

划重点:

🌟 Yuan3.0Flash 是一款开源的 40B 级多模态基础模型,提供多种权重与详尽技术文档。  

💡 采用创新稀疏混合专家架构,推理耗算显著下降,智能表现更强。  

🚀 在企业级应用中表现出色,已超越 GPT-5.1,多模态推理能力突出并有效降低成本。  

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享