重磅发布!Falcon H1R 7B 开源模型掀起推理新风潮

阿布扎技术创新研究院(TII)近日推出全新的开源大语言模型 —— Falcon H1R7B。该模型在保持紧凑的7亿参数规模的同时,拿出了行业领先的推理表现,强势挑战了“模型越大越强”的传统认知。下面一起看看这款引人关注的新品。

Falcon H1R7B 的研制与训练分为两步。第一步是“冷启动监督微调”(SFT),基于现有的 Falcon-H1-7B 模型,重点覆盖数学、编程、科学等方向。第二步是“强化学习增强”(GRPO),在 SFT 的基础上加入奖励机制优化,让模型的逻辑更清晰、输出更丰富。

image.png

在性能方面,Falcon H1R7B 从速度、Token 利用率到准确度都做了深度打磨。其独创的“Deep Think with Confidence”(DeepConf)推理方式,不仅能减少生成的 Token 数量,还能明显提升整体准确性。同时,模型采用 Transformer 与 Mamba(状态空间模型)的混合架构,长上下文处理更稳,推理吞吐也更高。

在公开评测中,Falcon H1R7B 的成绩同样亮眼。数学推理方面,在 AIME-24 测试中拿下 88.1% 的好成绩,超越很多 15B 规模模型;在代码与智能体任务的 LCB v6 测试中,以 68.6% 的分数成为 <8B 模型中的领先者;在通用推理的 MMLU-Pro 与 GPQA 测试上,它的竞争力甚至超过了一些更大的模型。

image.png

更值得一提的是,Falcon H1R7B 的推理吞吐量十分可观。在常见的批量设置下,单个 GPU 的 Token 处理速度可达约 1500 tokens/s,几乎是部分竞品的两倍。即使在低算力条件下,它也能稳定完成深度推理任务,非常适合开发者与企业落地使用。

目前,模型的完整检查点与量化版本已经上线 Hugging Face,便于研究、产品开发与实验。Falcon H1R7B 有望在开源 AI 领域掀起新一轮浪潮。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享