中国电信开源国产千亿参数MoE大模型TeleChat3!全栈自研,15万亿Tokens训练,内置“思考模式”对标国际顶级

正文:

国产大模型再获重大进展。中国电信人工智能研究院(TeleAI)近日正式开源星辰语义大模型TeleChat3系列,涵盖国内首个在全国产算力上完成训练的千亿参数细粒度MoE模型——TeleChat3-105B-A4.7B-Thinking,以及稠密架构的TeleChat3-36B-Thinking。该系列依托上海临港的国产万卡算力池完成训练,基础训练数据规模达15万亿tokens,标志着我国在超大规模AI模型自主可控方面迈出关键一步。

image.png

 全栈国产化:从芯片到框架全链路适配

TeleChat3系列已与华为昇腾生态深度适配:

– 兼容昇腾Atlas 800T A2训练服务器;
– 以昇思MindSpore框架为基础开发;
– 训练与推理全流程均运行在国产AI算力基础设施之上。

这不仅证明了国产软硬件栈可稳健支撑千亿级大模型,也为行业提供了安全、可靠、可替代的技术路线,对保障AI基础设施供应链安全具有重要意义。

image.png

 创新“Thinking模式”:让AI推理过程可追溯

TeleChat3全系引入Thinking(思考模式)——在对话模板中加入特定引导符,驱动模型自动生成中间推理步骤,在复杂任务上显著提升逻辑性与准确度。在知识问答、数学推理、内容创作、代码生成、智能体(Agent)等六大核心维度,整体表现已可对标国际主流头部模型。

例如,解数学题时,模型不再只给出答案,而会呈现“读题理解→拆解步骤→套用公式→结果校验”的完整思维链,大幅增强结果的可信度与可调试性。

 开源开放,赋能产业生态

目前,TeleChat3系列的模型权重、推理代码与使用示例已同步发布至GitHub与魔搭(ModelScope)平台,对学术研究与商业落地均友好开放。中国电信表示,将持续推进模型在政务、通信、能源、金融等关键行业的应用,助力“人工智能+”行动深入产业核心。

 AIbase观察:国产大模型进入“全栈自研+能力对标”新阶段

TeleChat3的发布,不仅是技术成绩展示,更是我国AI产业自主可控战略的实质落地。当千亿级MoE模型能在纯国产算力上高效训练,“思考模式”的能力又逐步逼近国际先进,国产大模型正从“能用”迈向“好用”,并走向“敢用”。

在全球AI竞争愈发“地缘化”的背景下,中国电信以TeleAI为支点,正在构建一条安全、开放且高性能的国产AI技术栈。这条路径能否成功,或将深刻影响我国在未来智能时代的话语权。

项目地址:https://github.com/Tele-AI/TeleChat3

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享