万亿参数新纪元:上海人工智能实验室开源全球最大科学多模态模型 Intern-S1-Pro

全球开源 AI 社区再迎里程碑。上海人工智能实验室正式发布并开放万亿参数级科学多模态大模型——书生 Intern-S1-Pro。该模型依托自研的“通专融合”技术架构 SAGE 打造,不仅把开源参数规模推至新高,也在多项关键科学能力上实现了显著跃升。

image.png

在开源范围内,Intern-S1-Pro 是目前体量最大的科学多模态模型。其综合学科评测位居 AI4S(AI for Science)领域国际领先行列,复杂数理逻辑推理能力达到奥赛金牌标准;同时在贴近真实科研流程的智能体任务中,也展现出开源模型第一梯队的硬核表现。

在技术底层,Intern-S1-Pro 采用混合专家(MoE)架构,总参数量达 1T(万亿)。通过高效路由机制,每次推理仅需激活约 22B 参数即可得到高质量输出。为赋予模型统一理解微观信号与宏观物理规律的“物理直觉”,研发团队引入傅里叶位置编码并重构时序编码器,攻克了超大规模 MoE 训练的稳定性与算力效率难题。

更值得一提的是,Intern-S1-Pro 贯通了从原创模型架构到国产算力基座的自主技术链路。当前,模型已在 GitHub、HuggingFace 等平台全面开源,并提供在线体验,为建设开放共享的科学研究基础设施夯实了底座。

  • 在线体验链接:https://chat.intern-ai.org.cn/

  • GitHub 链接:https://github.com/InternLM/Intern-S1

  • HuggingFace 链接:https://huggingface.co/internlm/Intern-S1-Pro

划重点:

  • 🏆 全球开源规模之最: Intern-S1-Pro 拥有 1T(万亿)参数,是当下开源社区中规模最大的科学多模态模型。

  • 🧬 顶尖科研逻辑能力: 数理推理达到奥赛金牌水平,综合学科评测处于 AI4S 领域国际领先。

  • 💻 自主技术链路突破: 基于 SAGE 架构与国产算力基座打造,借助 MoE 技术实现极高的算力效率与训练稳定性。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享