4月29日,科大讯飞发布全新星火X2-Flash模型,并同步开放API接口,意味着依托国产算力生态的大模型应用迈入更高效的新阶段。
该模型采用当前主流的MoE(混合专家)架构,总参数量为30B,最亮眼的是支持最高256K的超长上下文。值得一提的是,星火X2-Flash完全在华为昇腾910B集群上完成训练,展示了国产软硬件在深度学习训练上的协同能力。

在核心表现方面,星火X2-Flash在智能体(Agent)与代码生成上有明显增强。第三方实测显示,面对深度研究报告、Skill管理与调用、以及系统控制执行等复杂任务时,该模型的表现已可对比业界万亿级参数的顶尖模型。
针对开发者关心的成本,星火X2-Flash同样表现出色。在相同工作流测试中,其Token消耗约为当前主流大尺寸模型的三分之一,显著降低了构建复杂智能体应用的门槛。比如在创建复杂的视频生成技能时,模型不仅能迅速理解需求,还能清晰给出从技能结构到核心功能的详细说明。

在技术底层,星火X2-Flash率先在国产芯片上结合了DSA(稀疏注意力)与MTP(多Token预测)。这一做法解决了国产算力平台上长文本训练缓慢的难题,使同规模集群的训练效率提升约4.5倍。此外,面向智能体强化学习场景,模型通过算法与工程双优化,将采样推理效率提升了2倍以上,显著缓解了长交互过程中的性能瓶颈。
目前,AstronClaw、Loomy等应用已率先完成接入。同时,模型也与OpenClaw、Claude Code等国际主流Agent框架深度兼容,为全球开发者提供更具性价比的国产算力选择。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?