微博宣布推出自研开源大模型 Vibe Thinker。它凭借 15 亿参数,在国际顶级数学竞赛评测中超过 6710 亿参数的 DeepSeek R1,准确率更高,且单次“后训练”成本仅 7800 美元,比 DeepSeek-R1 和 MiniMax-M1 等模型低了数十倍。
Vibe Thinker 采用轻量化 MoE 架构和多轮知识蒸馏。官方表示,用不超过 5GB 的数学语料即可高效微调,支持在 Hugging Face 一键下载并可商用。微博技术团队称,模型在 AIME 2025、HMMT 等题库上的平均成绩相比 R1 提升 3.4%,推理延迟降低 42%,适合教育、金融等需要实时响应的场景。
开源版本提供 PyTorch 与 GGUF 格式,最低可用单张 RTX4090 运行。微博同步开放训练脚本与数据配比方案,计划 12 月推出 Vibe Thinker-Math 数学增强版,并联合高校举办“轻量级数学挑战赛”,推进低成本高精度 AI 的普及。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?