小米宣布发力高性能开源大模型赛道。近日推出全新基础语言模型 MiMo-V2-Flash,并以 MIT 许可完整开源模型权重与推理代码。该模型主打「超高速、低成本」与高效推理,在代码生成和智能体等场景表现突出。多方实测显示,其响应速度较热门的豆包、DeepSeek、元宝等国产模型更快,迅速引发开发者关注。

MiMo-V2-Flash 采用稀疏激活架构,总参数达到 3090 亿,但单次推理仅激活约 150 亿参数,在保证能力的同时大幅降低计算消耗。依托该设计,模型在多项公开基准中稳居开源模型第一梯队,实现性能与成本的平衡。
网友实测反馈称,MiMo-V2-Flash 的响应速度“快到意想不到”——在相同硬件条件下,生成延迟显著低于 DeepSeek 等竞品,尤其在多轮对话与复杂逻辑推理场景中优势更明显。有开发者直言:“不是快一点,是快一个量级。”

为加速生态落地,小米同步推出极具竞争力的 API 定价:输入每百万 Token 0.1 美元、输出 0.3 美元,并提供限时免费试用。该价格远低于主流商业模型,为中小企业与独立开发者提供更高性价比的选择。
值得一提的是,MiMo-V2-Flash 不止面向开发者,其通用能力同样适配日常 AI 助手场景,可无缝融入手机、智能家居、车载系统等小米“人车家全生态”终端。发布当天,小米将举办人车家全生态合作伙伴大会,预计进一步披露端云协同、设备端部署及多模态扩展等方面的应用规划。

在国产大模型竞争愈发激烈的当下,小米以“高性能+真开源+低门槛”的组合拳切入,不仅展现其 AI 战略的长期定力,也可能重塑开源模型的性能与成本预期。当 3090 亿参数的巨型模型也能“快如闪电”,这一赛道又迎来一位不容忽视的重量级选手。

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?