突破来袭!Falcon H1R 7B 开源模型掀起推理新风潮

阿布扎比技术创新研究院(TII)近日发布全新的开源大语言模型 —— Falcon H1R7B。它在约70亿参数的紧凑体量下,展现出领先的推理能力,直击“越大越强”的固有观念。一起看看这款备受关注的新模型。

Falcon H1R7B 的打造分为两步。第一步是“冷启动监督微调”(SFT),以现有的 Falcon-H1-7B 为基础,重点训练数学、编程和科学等领域。第二步是“强化学习增强”(GRPO),在 SFT 之上加入奖励机制,进一步优化逻辑推理与输出多样性。

image.png

在性能方面,Falcon H1R7B 从速度、Token 利用率到准确率都做了深度优化。其独特的“Deep Think with Confidence”(DeepConf)推理方法,能生成更少的 Token,同时显著提升整体准确度。模型还采用 Transformer 与 Mamba(状态空间模型)的混合架构,在处理长上下文时更稳定,并带来更高的推理吞吐。

在公开评测中,Falcon H1R7B 表现抢眼:数学推理上,AIME-24 测试拿下 88.1% 的高分,超过不少 15B 级别模型;在代码与代理任务的 LCB v6 测试中以 68.6% 成绩领跑同类 <8B 模型;在通用推理的 MMLU-Pro 和 GPQA 测试里,它也与更大型模型直接竞争不落下风。

image.png

更难得的是,Falcon H1R7B 的推理吞吐量相当亮眼。在常见批量大小下,每块 GPU 的处理速度约为 1500 tokens/s,几乎是部分竞品的两倍。即使在较低算力环境中,也能稳定完成深度推理,非常适合开发者与企业落地部署。

目前,完整的模型检查点以及量化版本已在 Hugging Face 上公开,便于研究使用、产品开发与实验验证。Falcon H1R7B 有望在开源 AI 领域掀起新一轮浪潮。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享