谷歌全球发布Search Live:Gemini3.1Flash Live加持,手机摄像头实现实时AI搜索

谷歌宣布在全球超过200个国家和地区正式上线“Search Live”。这次更新意味着移动搜索正从以文字/图片为主的传统检索,走向实时、可对话的多模态交互。用户现在可在Android与iOS端的Google应用或Google Lens中,通过手机摄像头配合语音指令,与现实环境进行实时AI交流。

QQ20260327-093634.jpg

Search Live的核心由全新的Gemini3.1Flash Live模型驱动。作为原生多语言的音频/语音大模型,它带来了更自然的交流体验和更快的响应。在实际使用中,用户只需把摄像头对准目标并发问,比如复杂的家具安装步骤或动植物识别,系统即可同步给出口播答案与相关网页链接,让现实物品与在线信息无缝衔接。

QQ20260327-093648.jpg

业内将此视作谷歌应对AI搜索竞争的关键动作。当前,Luma AI发布的Uni-1等模型正试图在图像处理上与谷歌竞争,OpenAI也计划把ChatGPT与浏览器能力整合,打造超级应用。谷歌通过全球化部署Search Live,借助Gemini3.1Flash Live的轻量与高响应特性,进一步巩固其在移动端入口的优势与护城河。

这一功能的全面铺开,意味着AI助手正从“被动检索工具”走向“主动感知伙伴”。通过深度融合计算机视觉与实时语音处理,谷歌正在拓展信息获取的边界,推动搜索迈入空间智能与多模态交互的新阶段。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享