最新多模态评测发布!Gemini-3-Pro大幅领跑,商汤与豆包表现抢眼,Qwen3-VL成首个开源高分

全球多模态大模型的竞争版图再次更新。近日,权威评测平台SuperCLUE-VLM公布了2025年12月多模态视觉语言模型综合榜单:谷歌Gemini-3-Pro以83.64分呈现断层优势,在视觉理解与推理方面表现极强。商汤科技SenseNova V6.5Pro拿到75.35分位居第二,字节跳动豆包以73.15分挺进前三。国产模型整体发挥亮眼,展现出中国AI在多模态赛道的快速追赶。

 评测维度:三大能力全面衡量模型“眼力”

SuperCLUE-VLM从三大关键维度评估模型的真实视觉理解能力:

– 基础认知:能看清图像中的物体、文字、场景等基本内容;

– 视觉推理:读懂画面逻辑、因果关系与隐藏信息;

– 视觉应用:完成图文生成、跨模态问答、工具调用等实际任务。

 Gemini-3-Pro全面领跑,国产模型加速追赶

谷歌Gemini-3-Pro在三项指标中均遥遥领先:

– 基础认知:89.01分  

– 视觉推理:82.82分  

– 视觉应用:79.09分  

综合成绩显著高于其他模型,进一步巩固了谷歌在多模态领域的领先地位。

国产阵营看点十足:

– 商汤SenseNova V6.5Pro以75.35分稳居第二,推理与应用能力较为均衡;

– 字节豆包大模型以73.15分排名第三,基础认知高达82.70分,超过部分国际模型,但在视觉推理环节略显不足;

– 百度ERNIE-5.0-Preview与阿里Qwen3-VL紧随其后,双双进入前五。

值得一提的是,Qwen3-VL成为榜单中首个总分突破70分的开源多模态模型,为全球开发者提供高性能、可商用的开放基座。

image.png

 国际巨头表现分化:Claude稳健,GPT-5.2意外落后

国际阵营方面,Anthropic的Claude-opus-4-5以71.44分位居中上,延续其在语言理解上的稳定表现;OpenAI的GPT-5.2(high配置)仅得69.16分,排名偏后,引发业界对其多模态能力优化方向的讨论。

 行业观察:多模态竞赛进入“实用化”新阶段

SuperCLUE-VLM榜单不仅是技术排名,也映射出新的趋势:  

– 开源模型崛起:Qwen3-VL证明开源路线同样能做到高性能,推动技术更普惠;  

– 国产聚焦场景落地:豆包、商汤等在基础认知方面表现突出,贴合中文互联网图文理解、短视频分析等高频应用;  

– 视觉推理仍是难点:多数模型在复杂逻辑与因果推断等高阶任务上还有差距,这也是Gemini保持领先的关键所在。

随着多模态能力成为AI Agent、智能座舱、AR/VR等下一代应用的核心基础,这场“看图说话”的比拼,正决定谁能真正“看见”并理解世界。而中国大模型,已在奔向全球第一梯队的道路上不断加速。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享