全球开源 AI 社区再迎里程碑。上海人工智能实验室正式发布并开放万亿参数级科学多模态大模型——书生 Intern-S1-Pro。该模型依托自研的“通专融合”技术架构 SAGE 打造,不仅把开源参数规模推至新高,也在多项关键科学能力上实现了显著跃升。

在开源范围内,Intern-S1-Pro 是目前体量最大的科学多模态模型。其综合学科评测位居 AI4S(AI for Science)领域国际领先行列,复杂数理逻辑推理能力达到奥赛金牌标准;同时在贴近真实科研流程的智能体任务中,也展现出开源模型第一梯队的硬核表现。
在技术底层,Intern-S1-Pro 采用混合专家(MoE)架构,总参数量达 1T(万亿)。通过高效路由机制,每次推理仅需激活约 22B 参数即可得到高质量输出。为赋予模型统一理解微观信号与宏观物理规律的“物理直觉”,研发团队引入傅里叶位置编码并重构时序编码器,攻克了超大规模 MoE 训练的稳定性与算力效率难题。
更值得一提的是,Intern-S1-Pro 贯通了从原创模型架构到国产算力基座的自主技术链路。当前,模型已在 GitHub、HuggingFace 等平台全面开源,并提供在线体验,为建设开放共享的科学研究基础设施夯实了底座。
-
在线体验链接:https://chat.intern-ai.org.cn/
-
GitHub 链接:https://github.com/InternLM/Intern-S1
-
HuggingFace 链接:https://huggingface.co/internlm/Intern-S1-Pro
划重点:
-
🏆 全球开源规模之最: Intern-S1-Pro 拥有 1T(万亿)参数,是当下开源社区中规模最大的科学多模态模型。
-
🧬 顶尖科研逻辑能力: 数理推理达到奥赛金牌水平,综合学科评测处于 AI4S 领域国际领先。
-
💻 自主技术链路突破: 基于 SAGE 架构与国产算力基座打造,借助 MoE 技术实现极高的算力效率与训练稳定性。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?