讯飞发布星火X2-Flash:国产算力加持,256K超长文本能力升级

4月29日,科大讯飞发布全新星火X2-Flash模型,并同步开放API接口,意味着依托国产算力生态的大模型应用迈入更高效的新阶段。

该模型采用当前主流的MoE(混合专家)架构,总参数量为30B,最亮眼的是支持最高256K的超长上下文。值得一提的是,星火X2-Flash完全在华为昇腾910B集群上完成训练,展示了国产软硬件在深度学习训练上的协同能力。

image.png

在核心表现方面,星火X2-Flash在智能体(Agent)与代码生成上有明显增强。第三方实测显示,面对深度研究报告、Skill管理与调用、以及系统控制执行等复杂任务时,该模型的表现已可对比业界万亿级参数的顶尖模型。

针对开发者关心的成本,星火X2-Flash同样表现出色。在相同工作流测试中,其Token消耗约为当前主流大尺寸模型的三分之一,显著降低了构建复杂智能体应用的门槛。比如在创建复杂的视频生成技能时,模型不仅能迅速理解需求,还能清晰给出从技能结构到核心功能的详细说明。

image.png

在技术底层,星火X2-Flash率先在国产芯片上结合了DSA(稀疏注意力)与MTP(多Token预测)。这一做法解决了国产算力平台上长文本训练缓慢的难题,使同规模集群的训练效率提升约4.5倍。此外,面向智能体强化学习场景,模型通过算法与工程双优化,将采样推理效率提升了2倍以上,显著缓解了长交互过程中的性能瓶颈。

目前,AstronClaw、Loomy等应用已率先完成接入。同时,模型也与OpenClaw、Claude Code等国际主流Agent框架深度兼容,为全球开发者提供更具性价比的国产算力选择。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享