中国电信发布开源国产千亿参数MoE大模型TeleChat3!全栈国产自研,15万亿tokens训练,内置“思考模式”对标国际一线

国产大模型再获重大进展。中国电信人工智能研究院(TeleAI)近日开源星辰语义大模型TeleChat3系列,其中包含国内首个在纯国产算力上训练完成的千亿级细粒度MoE模型——TeleChat3-105B-A4.7B-Thinking,以及稠密架构的TeleChat3-36B-Thinking。该系列完全依托上海临港国产万卡算力池,基础训练数据累计15万亿tokens,标志着我国在超大规模模型自主可控上迈出关键一步。

image.png

 全栈国产化:从芯片到框架全链路适配

TeleChat3全线深度适配华为昇腾生态:

– 兼容昇腾Atlas800T A2训练服务器;

– 基于昇思MindSpore框架开发;

– 训练与推理全流程运行在国产AI算力底座之上。

这不仅验证了国产软硬件栈驾驭千亿级大模型的能力,也为行业提供了安全、可靠、可替代的技术路线,对AI基础设施供应链安全意义重大。

image.png

 创新“Thinking模式”:让AI推理过程可追溯

TeleChat3全系引入Thinking(思考模式):在对话模板中加入特定引导符,促使模型自动生成中间推理步骤,从而在复杂任务上显著提升逻辑性与准确性。在知识问答、数学推理、内容创作、代码生成、智能体(Agent)等六大方向,性能已对齐国际主流头部模型。

以数学解题为例,模型不只给出最终答案,还会展示“读题理解→拆解步骤→套用公式→结果校验”的完整思路链,结果更可信,也更易检查与优化。

 开源开放,赋能产业生态

目前,TeleChat3系列的模型权重、推理代码与使用示例已同步上线GitHub与魔搭(ModelScope)平台,支持科研与商业场景。中国电信表示,后续将加速推动模型在政务、通信、能源、金融等重点行业落地,助力“人工智能+”深入各类核心业务。

 行业观察:国产大模型迈入“全栈自研+能力对标”新阶段

TeleChat3的发布,不只是技术展示,更是我国AI产业自主可控路线的务实落地。当千亿级MoE模型能在国产算力上高效训练、当“思考模式”逼近国际先进水准,国产大模型正在从“能用”走向“好用”,并逐步到达“敢用”。

在全球AI竞争愈发“地缘化”的背景下,中国电信以TeleAI为抓手,正建设安全、开放、高性能的国产AI技术栈。这条路径的成效,或将深刻影响中国在未来智能时代的话语权。

项目地址:https://github.com/Tele-AI/TeleChat3

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享