大模型圈的“性价比之争”再次提速!近日,谷歌官宣推出其全新一代轻量旗舰模型 Gemini3Flash。更让人意外的是,这款主打“高速与低成本”的新模型,不仅全面接棒前代,成为谷歌搜索AI 模式及 Gemini 应用的默认底层引擎,还在多项实测中上演了“下克上”的一幕。
🚀速度快3倍,价格却大降
对于企业和开发者来说,Gemini3Flash的到来可谓一次“福利雨”。谷歌官方数据显示,它的运行速度比 2.5Pro 足足快了 3 倍,但推理成本却明显下探:其输入价格仅为每百万令牌 0.50美元,较 2.5Pro 下降 60%;输出价格也从 10 美元直接降至 3美元。

这种出色的性价比,让复杂的 AI 智能体(Agent)大规模上线不再遥远。配合最高 90% 的上下文缓存(Context Caching)折扣,谷歌正试图用价格建立“护城河”,让竞品难以应对。
“脑力”亮眼:在编程上反超旗舰?
便宜和快在意料之中,而Gemini3Flash的“智力”表现却超出预期。在被视为公认标准的 SWE-Bench Verified 榜单上,Flash 版本拿下 78%,竟直接超过定位更高的旗舰Gemini3Pro。
此外,它还带来了全新的 “思考等级”(Thinking Level) 控制。开发者可像调音量一样,在“低延迟/低成本”和“深度推理”之间自由切换。这意味着,处理日常简单对话时,它能秒回;而面对复杂的代码修复或法律文书分析时,它会自动“深呼吸”,调用更多算力以确保准确度。

全民 AI 到来:人人都能“氛围编程”
Gemini3Flash的全面开放,标志着 AI 正从“炫技”走向“好用”。通过 Google AI Studio 或 Vertex AI,开发者几乎可以实时搭建响应式应用。已有早期用户把它称为“氛围编程(Vibe Coding)”利器——只要有创意,用自然语言描述需求,这台“小钢炮”就能迅速把想法变成可运行的代码逻辑。
随着Gemini3Flash成为谷歌搜索的底座,未来我们的每一次搜索、每一段代码,甚至每一次视频解析,都将由这个更聪明、更划算的“大脑”驱动。
划重点:
-
⚡ 又快又省:Gemini3Flash速度提升 3 倍,推理价格降至前代约 20%,打破“高性能=高价格”的旧认知。
-
🏆 编程表现“逆袭”:在 SWE-Bench 测试中得分 78%,意外超越Gemini3Pro,成为当前性价比很高的编码模型之一。
-
🎚️ 可调推理深度:新增“思考等级”参数,允许开发者按任务难度在准确性与延迟之间灵活取舍。
用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?