微博推出开源Vibe Thinker:15亿参数跑赢DeepSeek R1,后训练成本仅7800美元

微博宣布推出自研开源大模型 Vibe Thinker。它凭借 15 亿参数,在国际顶级数学竞赛评测中超过 6710 亿参数的 DeepSeek R1,准确率更高,且单次“后训练”成本仅 7800 美元,比 DeepSeek-R1 和 MiniMax-M1 等模型低了数十倍。

Vibe Thinker 采用轻量化 MoE 架构和多轮知识蒸馏。官方表示,用不超过 5GB 的数学语料即可高效微调,支持在 Hugging Face 一键下载并可商用。微博技术团队称,模型在 AIME 2025、HMMT 等题库上的平均成绩相比 R1 提升 3.4%,推理延迟降低 42%,适合教育、金融等需要实时响应的场景。

开源版本提供 PyTorch 与 GGUF 格式,最低可用单张 RTX4090 运行。微博同步开放训练脚本与数据配比方案,计划 12 月推出 Vibe Thinker-Math 数学增强版,并联合高校举办“轻量级数学挑战赛”,推进低成本高精度 AI 的普及。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享